„GPT-4” atsiradimas nuvylė daugelį ekspertų ne dėl techninių patobulinimų, bet dėl informacijos apie generatyvinio modelio vidinį veikimą trūkumo. Priešingai savo principams, „OpenAI” išleido ne atvirą kalbos modelį, o „juodąją dėžę”, slėpdama beveik visas dirbtinio intelekto bendruomenei įdomias technines detales.
Bendrovės vadovybė tai aiškina konkurencija ir noru apsaugoti žmones nuo nekontroliuojamo ir pavojingo dirbtinio intelekto atsiradimo. Vienas iš bendrovės įkūrėjų prisipažįsta manantis, kad „GPT-4” gali išaugti į universalų dirbtinį intelektą, ir netgi užsimena apie laiko ribą – įrankio pavojingumas visiems taps akivaizdus po poros metų.
„OpenAI” pateikė naudotojams daugybę „GPT-4” bandymų rezultatų ir parodė intriguojančių „GPT-4” galimybių pavyzdžių, tačiau daug informacijos apie sistemai apmokyti naudotus duomenis, energijos sąnaudas ir konkrečią aparatinę įrangą ar metodus, naudotus kalbos modeliui sukurti, nepateikė.
Daugelis dirbtinio intelekto bendruomenės narių kritikavo šį sprendimą, pažymėdami, kad jis prieštarauja pagrindinei bendrovės etikai ir principams, kuriais ji kadaise buvo įkurta. Praktiniu požiūriu toks uždarumas apsunkina priemonių, skirtų kovoti su grėsmėmis visuomenei, kurias gali kelti tokios sistemos kaip „GPT-4”, kūrimą.
Duodamas interviu portalui „The Verge„, vienas iš „OpenAI” įkūrėjų ir vyriausiasis mokslininkas Elijah Sutzkeveris teigė, kad bendrovės vadovybės sprendimo priežastys yra „akivaizdžios”: visa tai susiję su konkurencija.
„GPT-4 nėra lengva sukurti”, – aiškino jis. – Jo kūrimas labai ilgai naudojo ir vis dar sunaudoja beveik visą „OpenAI” energiją. Ir yra daug įmonių, kurios nori to paties, todėl konkurencijos požiūriu tai galima vertinti kaip industrijos brandumą.”
Pasak Sutzkeverio, „GPT-4” saugumo klausimas nėra toks svarbus kaip konkurencijos klausimas. Tačiau laikui bėgant tai pasikeis. „Šie modeliai yra labai pajėgūs ir tampa vis galingesni. Kažkuriuo metu bus labai lengva, jei bus toks noras, šiais modeliais padaryti daug žalos. O kadangi jų galimybės auga, prasminga jų neatskleisti”, – sakė jis.
Toks uždaras požiūris iš esmės skiriasi nuo principų, kuriais remdamasi 2015 m. nedidelė entuziastų grupė įkūrė „OpenAI”. Be Sutzkeverio, jai priklausė dabartinis generalinis direktorius Samas Altmanas ir Elonas Muskas, kuris 2018 m. dėl nesutarimų paliko direktorių valdybą.
Iš pradžių ji buvo ne pelno siekianti organizacija, tačiau vėliau tapo „ribotai komercine”, kad būtų lengviau pritraukti milijardines investicijas, pirmiausia iš „Microsoft”.
Paklaustas, kodėl „OpenAI” pakeitė savo poziciją ir nustojo atskleisti savo modelių technines detales, Sutzkeveris prisipažino: „Mes klydome. Atvirai kalbant, klydome. Jei tikite, kaip ir mes, kad kada nors dirbtinis intelektas – universalusis dirbtinis intelektas – taps nepaprastai, neįsivaizduojamai galingas, tuomet tiesiog neišmintinga atskleisti detalių. Tai nėra gera idėja… Esu visiškai įsitikinęs, kad po poros metų visiems bus visiškai akivaizdu, jog nėra protinga atskleisti dirbtinio intelekto šaltinius.”
Kita priežastis, kodėl kompanija neatskleidžia savo technologijos detalių, gali slypėti teisiniame aspekte. Kalbos modeliai mokomi iš milžiniškų apimčių tekstų, surinktų visame internete. Tikėtina, kad tarp šių tekstų gali būti ir tokių, kurių autorių teisės saugomos.
→ PAREMKITE mus savo 1,2 proc. GPM, kas jums nieko papildomai nekainuos. Ačiū labai. → Naujienlaiškis
Ruošiama pasaulio pabaiga…