OpenAI do të mbështetet në një ekip dhe udhëzime për të vlerësuar “risqet katastrofike” të inteligjencës artificiale në modelet aktualisht në zhvillim. Njoftimi vjen një muaj pasi bordi i kompanisë shkarkoi CEO Sam Altman, më pas e ripunësoi atë pasi punonjësit dhe investitorët u revoltuan. “Ne besojmë se studimi shkencor mbi rreziqet katastrofike që lindin nga inteligjenca artificiale është shumë më poshtë se sa duhet,” shpjegoi OpenAI, kështu që ”udhëzimet ndihmojnë për të mbushur këtë boshllëk”. Sipas mediave amerikane, anëtarët e bordit të drejtorëve të kompanisë kishin kritikuar Altman për favorizimin e zhvillimit të përshpejtuar të OpenAI. Ekipi i monitorimit dhe vlerësimit do të fokusohet në modelet në zhvillim dhe do të caktojë një nivel rreziku, nga “i ulët” në “kritik”, në katër kategori kryesore. Mund të përdoren vetëm modelet me një rezultat rreziku “mesatar” ose më të ulët. Kategoria e parë ka të bëjë me sigurinë kibernetike dhe aftësinë e modelit për të kryer sulme kibernetike në shkallë të gjerë. E dyta mat prirjen e softuerit për të kontribuar në krijimin e një përzierjeje kimike, një virusi ose një arme bërthamore. Kategoria e tretë ka të bëjë me fuqinë bindëse të modelit, pra shkallën në të cilën ai mund të ndikojë në sjelljen njerëzore. Kategoria e fundit e rrezikut ka të bëjë me autonominë e mundshme të modelit, veçanërisht nëse ai mund t’i shpëtojë kontrollit të programuesve që e krijuan atë. Pasi të identifikohen rreziqet, ato do t’i dorëzohen Grupit Këshillues të Sigurisë të OpenAI, organi që do t’i bëjë rekomandime Altman ose një personi të caktuar prej tij. Menaxheri i OpenAI do të vendosë më pas për çdo ndryshim që duhet të bëjë në një model për të zvogëluar rreziqet e lidhura.
OpenAI: Një ekip do të vlerësojë rreziqet ‘katastrofike’ të IA
RELATED ARTICLES