Egy évvel azután, hogy a “szuperintelligencia” fejlesztésében betegesen érdekelt Sam Altman újra vezérigazgató lett az OpenAI-nál, most egy öngyilkosságként kommunikált, ám titokzatos haláleset borzolja a kedélyeket. Az elhunyt Suchir Balaji ugyanis az elmúlt hónapokban többször azért kongatta a vészharangot, mert a cég folyamatosan törvényellenesen fejleszti leghíresebb projektjét, a ChatGPT-t. A “szuperintelligencia” feltalálása akkora félelmet okozott a nemzetközi közvéleményben, hogy még Elon Musk is megszólalt az ügy kapcsán.
Rejtélyes körülmények között meghalt Suchir Balaji, akinek holttestét egy san franciscó-i lakásban találták meg. A 26 éves férfi a rendőrség szerint öngyilkos lett.
A férfi az elmúlt hónapokban többször is figyelmeztetett, hogy egykori munkahelyén, az OpenAI-nál a ChatGPT fejlesztése jogsértésekkel történik.
Jogsértések és perek tömkelege
A BBC azt írta, Balaji 2020 óta dolgozott az OpenAI-nál a mesterséges intelligencia nyelvi modelljeinek fejlesztésén, egészen idén nyárig.
Az elmúlt hónapokban azzal lett híres, hogy jelezte: a ChatGPT betanításához illegálisan gyűjtenek adatokat, a szerzői jogot is megsértve.
Az OpenAI állítja, hogy az MI-modelleket nyilvánosan elérhető adatokkal fejlesztik, de közben sok művész és médiavállalat is pert indított, mert szerintük a szellemi termékeiket egyszerűen ellopták az algoritmus fejlesztéséhez.
Miután Balaji a nyáron otthagyta a munkahelyét, több interjút is adott, amelyekben arról beszélt: a mesterséges intelligencia tönkreteszi az egyének, cégek és online szolgáltatások kereskedelmi életképességét, miközben pont azoknak az adataiból tanították be.
Az elmúlt években több botrány is befeketítette a vállalatot. Tavaly november végén bombaként robbant a hír, hogy kirúgták Sam Altmant, az OpenAI vezérigazgatóját és társalapítóját a cégtől arra hivatkozva, hogy nem bíznak a vezetői képességében.
Hogyan tért vissza a techvezér?
Azonban a vállalat 750 munkavállalójának nagy része a felmondást fontolgatta a vezérigazgató menesztése miatt, mire az igazgatótanács tárgyalni kezdett Altman visszahívásáról, és ismét a cég vezetője lett.
Rejtély, hogy mi a valódi oka Altman visszatérésének. Ám belső források jelentős fenyegetésekre gyanakodtak ennek hátterében.
Az Altman kontra OpenAI csörtét megelőző hónapokban ugyanis a cég egy olyan áttörést ért el a mesterséges intelligencia fejlesztésében, amely akár egy úgynevezett „szuperintelligencia” kialakulásához vezethet.
Altman ezután rögtön le is nyilatkozta, hogy ez a fejlesztés „félretolja a tudatlanság fátylát, és kiterjeszti a felfedezések határait.”
Azonban míg Altmannak valamilyen érdeke származott a „szuperintelligencia” kialakulásában, addig az igazgatótanács kifejezetten veszélyesnek titulálhatta az alkotást.
Elon Musk is figyelmeztetett
Legalábbis erre utalt Elon Musk nyilatkozata is:
Az OpenAI valami olyan veszélyes dolgot fedezhetett fel, amely káoszt okozott a vállalatnál
– mondta a Tesla-vezér a The New York Times Dealbook nevű konferenciáján.
Az X vezérigazgatója szerint ez az áttörés aggasztó lehetett Ilya Sutskever, az OpenAI társalapítója és vezető tudósa számára, és emiatt a vállalat arra kényszerülhetett, hogy megpróbálja elkerülni a veszélyt.
Elon Musk azt mondta: megpróbálta kideríteni, mi történt az OpenAI kulisszái mögött, de nem sikerült, még Ilya Sutskevertől sem tudott meg semmi érdemlegeset.
Musk azt is felvetette, hogy a mesterséges intelligenciával foglalkozó vállalatok hazudnak, amikor azt állítják, hogy mesterségesintelligencia-rendszereiket nem emberek adatain képezték ki.
De azt mondta, hogy az ezzel kapcsolatos esetleges perek nem fognak lezárulni addig, amíg nem lesz egy „digitális istenünk”.
Rajta kívül Lawrence Summers, az OpenAI új igazgatósági tagja is arra figyelmeztetett korábban, hogy a cég munkája „rendkívül fontos”, és a vállalatnak „lelkiismeretes vállalatként” kell működnie.
Készen kell állnia arra, hogy együttműködjön a kulcsfontosságú kormányzati tisztviselőkkel szabályozási kérdésekben, nemzetbiztonsági kérdésekben, technológiai fejlesztési kérdésekben
– fogalmazott Summers a Bloomberg cikke szerint.
Az OpenAI végül tavaly egy külön csapatot hozott létre a mesterséges intelligenciával kapcsolatos „katasztrofális kockázatok mérséklésére,” illetve annak érdekében, hogy lecsillapítsák a kedélyeket a sajtóban.
Ám a cég mindössze a nukleáris fenyegetések kiszűrésében ígért fegyelmet, a kiberbiztonsági veszélyekről és arról, hogy az AI hogyan befolyásolja az embert, és mekkora károkat okozhat a tudatukban, a The Verge szerint nem tettek említést.
Facebook
Twitter
YouTube
RSS