Lider OpenAI, który odchodzi, oświadczył, że żadna organizacja nie jest przygotowana na AGI.
Dział ‘Gotowość AGI’ w OpenAI także zaczyna być rozwiązywany. Kylie Robison, starsza reporterka ds. sztucznej inteligencji, która współpracuje z zespołami politycznymi i technicznymi The Verge. W przeszłości pracowała w Business Insider i Fortune Magazine.
Z ogłoszeniem swojego odejścia w środę, Miles Brundage, starszy doradca OpenAI ds. wykonalności AGI (znanej również jako sztuczna inteligencja na poziomie ludzkim), wydał ostrzeżenie: nikt, włączając w to OpenAI, nie jest przygotowany na sztuczną inteligencję ogólną.
Brundage, który przez sześć lat pomagał w rozwoju inicjatyw bezpieczeństwa AI firmy, napisał: “Ani OpenAI, ani żadne inne labolatorium nie jest przygotowane na AGI, a także świat nie jest przygotowany.” “Aby być całkowicie jasnym, nie wierzę, że to jest kontrowersyjna deklaracja wśród liderów OpenAI. Co ważniejsze, to jest odrębne pytanie od tego, czy firma i świat są na dobrej drodze, aby być przygotowanym we właściwym czasie.”
Jego odejście jest najnowszym w serii głośnych odejść z zespołów bezpieczeństwa OpenAI. Po stwierdzeniu, że “kultura bezpieczeństwa i procesy zajęły miejsce na drugim planie dla błyszczących produktów”, odszedł Jan Leike, znakomity badacz. Ilya Sutskever, współzałożyciel, także odszedł, aby założyć własne przedsięwzięcie AI, które specjalizuje się w rozwoju bezpiecznego AGI.
Rozwiązanie zespołu “Gotowość AGI” Brundage’a, które nastąpiło zaledwie kilka miesięcy po rozwiązaniu zespołu “Superalignment” firmy, podkreśla rosnące napięcia między pierwotną misją OpenAI i jej aspiracjami komercyjnymi. Firma podobno jest pod presją, aby przekształcić się z organizacji non-profit w spółkę akcyjną na korzyść publiczną w ciągu najbliższych dwóch lat, w przeciwnym razie może być zmuszona do zwrotu środków z jej ostatniej rundy inwestycyjnej o wartości 6,6 miliarda dolarów. Ten proces komercjalizacji był powodem niepokoju dla Brundage’a, który wyraził obawy w 2019 roku, gdy OpenAI początkowo założyło swoją działalność komercyjną.
Brundage przypisał swoje odejście rosnącym ograniczeniom dotyczącym jego wolności badawczej i publikacyjnej w renomowanej organizacji. Podkreślił konieczność niezależnych perspektyw w dyskusjach na temat polityki AI, wolnych od przemysłowych uprzedzeń i konfliktów interesów. Jest przekonany, że teraz może mieć większy wpływ na globalne zarządzanie AI z zewnątrz organizacji, po pełnieniu funkcji doradcy przygotowań wewnętrznych OpenAI.
To odejście może również być oznaką głębokiego podziału kulturowego wewnątrz OpenAI. Wielu badaczy zwerbowało się w celu promowania badań nad AI, ale teraz stają w obliczu środowiska bardziej skoncentrowanego na produktach. Przydział wewnętrznych zasobów stał się punktem zapalnym; doniesienia sugerują, że zespołowi Leike’a odmówiono dostępu do mocy obliczeniowej do badań bezpieczeństwa przed jego ostatecznym rozwiązaniem.
Brundage przyznał, że OpenAI zaoferowała mu finansowanie, kredyty API i wstępny dostęp do modelu, bez żadnych warunków, pomimo wyżej wymienionych napięć.