Kilku pracowników badawczych OpenAI napisało list do zarządu ostrzegając o potężnym odkryciu w dziedzinie sztucznej inteligencji, które mogłoby stanowić zagrożenie dla ludzkości – poinformowali informatorzy agencji Reuters. Ten wcześniej niepublikowany list oraz algorytm sztucznej inteligencji były kluczowymi czynnikami, które doprowadziły do zwolnienia dotychczasowego CEO, Sama Altmana, ikony generatywnej sztucznej inteligencji. Przed jego triumfalnym powrotem do firmy, ponad 700 pracowników zagroziło, że odejdzie i dołączy do wspierającej firmy Microsoft w solidarności z ich zwolnionym liderem.
Spis treści:
Tło wydarzeń
Zgodnie ze źródłami, list był jednym z wielu zarzutów, które spowodowały zwolnienie Altmana, a zarzuty te dotyczyły m.in. obaw związanych z komercjalizacją postępów w dziedzinie sztucznej inteligencji przed zrozumieniem ich konsekwencji. Reuters nie miał dostępu do treści listu, a pracownicy, którzy go napisali, nie odpowiedzieli na prośby o komentarz.
Po skontaktowaniu się z OpenAI, firma przyznała w wewnętrznej wiadomości dla pracowników, że istnieje projekt o nazwie Q*, oraz że został wysłany list do zarządu przed wydarzeniami z weekendu. Niektórzy pracownicy OpenAI uważają, że Q* (wymawiane Q-Star) może być przełomem w poszukiwaniu tzw. sztucznej ogólnej inteligencji (AGI). OpenAI definiuje AGI jako autonomiczne systemy, które przewyższają człowieka w większości ekonomicznie wartościowych zadań.
Potencjalny przełom w matematyce
Zasoby obliczeniowe pozwoliły nowemu modelowi na rozwiązanie pewnych problemów matematycznych na poziomie szkoły podstawowej, co sprawiło, że badacze byli bardzo optymistycznie nastawieni do przyszłego sukcesu Q* – powiedział anonimowy informator. Reuters nie był w stanie niezależnie potwierdzić zdolności Q* zgłaszanych przez badaczy.
Badacze uważają matematykę za obszar rozwoju generatywnej sztucznej inteligencji. Obecnie generatywna sztuczna inteligencja jest dobra w pisaniu i tłumaczeniu języka, przewidując statystycznie następne słowo, a odpowiedzi na to samo pytanie mogą się różnić.
Jednak opanowanie umiejętności matematycznych – gdzie jest tylko jedna poprawna odpowiedź – implikuje, że sztuczna inteligencja miałaby większe zdolności rozumowania przypominające ludzką inteligencję. Uważa się, że może to mieć zastosowanie w nowatorskich badaniach naukowych.
Bezpieczeństwo i obawy
W swoim liście do zarządu badacze podkreślili zarówno potencjalne możliwości, jak i zagrożenia związane z rozwojem sztucznej inteligencji. Istnieje od dawna dyskusja wśród informatyków na temat zagrożeń wynikających z wysoko rozwiniętych maszyn, na przykład związanych z możliwością, że takie maszyny zdecydują, iż zniszczenie ludzkości jest w ich interesie.
Badacze zwrócili również uwagę na pracę zespołu „naukowców ds. sztucznej inteligencji”, istnienie którego potwierdziło kilka źródeł. Zespół ten, powstały poprzez połączenie wcześniejszych zespołów „Code Gen” i „Math Gen”, badał, jak zoptymalizować istniejące modele sztucznej inteligencji w celu poprawy ich zdolności rozumowania i ostatecznego wykonywania prac naukowych.
Sam Altman i rozwój ChatGPT
Sam Altman był liderem w rozwoju ChatGPT, jednej z najszybciej rozwijających się aplikacji oprogramowania w historii. Dzięki inwestycjom i zasobom obliczeniowym dostarczanym przez Microsoft, firma zbliżała się do AGI.
Oprócz ogłoszenia nowych narzędzi w ramach prezentacji w tym miesiącu, Altman na szczycie światowych liderów w San Francisco zdradził, że wierzy w bliskie nadejście istotnych postępów. Powiedział: „Cztery razy w historii OpenAI, ostatnio właśnie w ostatnich kilku tygodniach, miałem okazję być w pomieszczeniu, gdy przesuwamy zasłonę nieświadomości i posuwamy granicę odkrycia naprzód. To jest zawodowe wyróżnienie całego życia”.
Dzień później zarząd zwolnił Altmana.
Podsumowanie
Ostrzeżenie badaczy OpenAI dla zarządu przed przełomem w dziedzinie sztucznej inteligencji i potencjalnym zagrożeniem dla ludzkości było jednym z czynników, które doprowadziły do zwolnienia dotychczasowego CEO Sama Altmana. Projekt Q* i możliwość rozwiązywania problemów matematycznych przez sztuczną inteligencję na poziomie szkoły podstawowej budziły optymizm wśród badaczy. Jednak obawy dotyczące bezpieczeństwa i skutków komercjalizacji postępów w dziedzinie sztucznej inteligencji również odegrały istotną rolę w tym procesie.
Badacze zwrócili uwagę na rozwój zespołu „naukowców ds. sztucznej inteligencji”, który miał za zadanie zoptymalizować istniejące modele i umożliwić sztucznej inteligencji wykonywanie prac naukowych.
Zwolnienie Altmana, który był kluczową postacią w rozwoju ChatGPT, wywołało reakcję ze strony ponad 700 pracowników, którzy zagrozili odejściem z firmy i dołączeniem do Microsoftu w solidarności z ich zwolnionym liderem.
Wszystkie te wydarzenia wskazują na istotne zmiany w OpenAI i podkreślają znaczenie rozwoju sztucznej inteligencji i jej potencjalnych zagrożeń dla społeczeństwa.