Չինաստանը կխստացնի AI մոդելների ուսուցման կանոնները
Չինաստանը ներկայացրել է գեներատիվ արհեստական բանականության ծառայություններ մատուցող ընկերությունների գործունեության կանոնների նախագիծ։ Դրանք ներառում են մոդելների պատրաստման համար օգտագործվող տվյալների աղբյուրների սահմանափակումները, գրում է Cointelegraph-ը։
Փաստաթուղթը մշակվել է Տեղեկատվական անվտանգության ստանդարտացման ազգային կոմիտեի կողմից: Այն ներառում է Չինաստանի կիբերտարածության վարչության (CAC), արդյունաբերության և տեղեկատվական տեխնոլոգիաների նախարարության և իրավապահ մարմինների ներկայացուցիչներ:
Կոմիտեն առաջարկում է գնահատել բովանդակության անվտանգությունը, որն օգտագործվում է հանրությանը հասանելի գեներատիվ AI մոդելների պատրաստման համար: 5%-ից ավելի անօրինական և վնասակար տեղեկատվությամբ տվյալները կհայտնվեն սև ցուցակում:
Այս կատեգորիան ներառում է նյութեր, որոնք քարոզում են ահաբեկչություն, բռնություն, խարխլում սոցիալիստական համակարգը, վնասում են երկրի հեղինակությանը և գործողություններ, որոնք թուլացնում են ազգային համախմբվածությունը և հասարակության կայունությունը:
Նախագիծը պահանջում է կազմակերպություններից ստանալ հստակ համաձայնություն այն անձանցից, որոնց անձնական տվյալները՝ ներառյալ կենսաչափական տվյալները, օգտագործվում են վերապատրաստման համար:
Կանոնների մշակումը տեղի է ունենում արդեն 1 ամիս, ինչ կարգավորիչները թույլ տվեցին Baidu-ի նման տեխնոլոգիական հսկաներին ներկայացնել իրենց չաթ-բոտերը լայն հանրությանը:
Ապրիլին CAC-ը տեղեկացրեց ընկերություններին, որ նրանք պետք է ապահովեն անվտանգության գնահատումներ՝ նախքան AI պրոդուկտ առաջարկելը:
Հուլիսին գործակալությունը հրապարակեց այս ծառայությունները կարգավորող ուղեցույցների մի շարք, որը պարզվեց, որ ավելի քիչ ծանրաբեռնված էր, քան սկզբնական նախագիծը:
Հիշեցնենք, որ հունվարին Չինաստանում ուժի մեջ է մտել օրենք, որն արգելում է առանց սուբյեկտի թույլտվության կամ ի վնաս ազգային շահերի դիփֆեյքերի ստեղծումը։
Տեխնոլոգիական հրապարակումներն իրականացվում են Իդրամի աջակցությամբ։