
OpenAI-ն իջեցնում է AI մոդելների անվտանգության փորձարկման պայմանները
ChatGPT-ն մշակող OpenAI-ը կրճատել է սեփական արհեստական բանականության մոդելների անվտանգության ստուգման պայմանները, ինչպես նաև այդ նպատակների համար հատկացված ռեսուրսների ծավալը:
Սա վախ է առաջացնում, որ ընկերությունը շտապում է թողարկել նոր տեխնոլոգիաներ, մրցակցային առավելությունը պահպանելու համար՝ առանց դրանց անվտանգության բավարար ստուգման:
Ըստ FT- ի աղբյուրների՝ միայն մի քանի օր է հատկացվել աշխատողներին և երրորդ կողմի խմբին՝ ռիսկերի և կատարողականության վերաբերյալ Openai LLM- ի վերջին մոդելը գնահատելու համար:
Թեստավորումը դարձել է ավելի մանրակրկիտ, և դրա համար հատկացված ժամանակն ու ռեսուրսներն այլևս անբավարար են:
Փորձարկման ժամանակը պայմանավորված է «մրցակցային ճնշմամբ», հաշվի առնելով, որ OpenAI-ը մրցում է այնպիսի ընկերությունների հետ, ինչպիսիք են Meta Platforms Inc.-ը և այլն:
OpenAI-ը հաջորդ շաբաթ փորձում է թողարկել իր նոր O3 AI մոդելը, և որոշ փորձարկողների մեկ շաբաթից պակաս ժամանակ է տրվել դրա անվտանգությունը ստուգելու համար: Ըստ նրանց՝ մոդելի թողարկման ամսաթիվը կարող է փոխվել:
Նախկինում ընկերությունն այս նպատակների համար հատկացնում էր մի քանի ամիս: Այսպիսով, մինչև 2023 թվականին GPT-4 մոդելի գործարկումը, այն փորձարկվել է վեց ամիս շարունակ:
Տեխնոլոգիական հրապարակումներն իրականացվում են Իդրամի աջակցությամբ։