OpenAI szkoli swój kolejny model AI GPT-5

OpenAI szkoli swój kolejny model AI GPT-5

OpenAI ogłosiło utworzenie nowego "Komitetu ds. Bezpieczeństwa i Ochrony", który będzie nadzorować zarządzanie ryzykiem swoich projektów i operacji. Ogłoszenie to pojawiło się, gdy firma poinformowała, że „niedawno rozpoczęła” szkolenie swojego nowego modelu, który ma przybliżyć firmę do osiągnięcia sztucznej inteligencji ogólnej (AGI), chociaż niektórzy krytycy twierdzą, że AGI jest jeszcze daleko przed nami. To ogłoszenie jest również reakcją na fatalne dla OpenAI dwa tygodnie w prasie.

Czy wspomniany nowy "frontier model" jest przeznaczony dla GPT-5, czy też jeszcze nie, obecnie nie wiadomo. W branży AI termin „frontier model” odnosi się do nowego systemu AI zaprojektowanego do przesuwania granic obecnych możliwości. „AGI” odnosi się do hipotetycznego systemu AI o ludzkich zdolnościach do wykonywania nowych, ogólnych zadań poza danymi treningowymi (w przeciwieństwie do wąskiej AI, która jest szkolona do konkretnych zadań).

Tymczasem nowy Komitet ds. Bezpieczeństwa i Ochrony, kierowany przez dyrektorów OpenAI: Breta Taylora (przewodniczący), Adama D'Angelo, Nicole Seligman i Sama Altmana (CEO), będzie odpowiedzialny za wydawanie zaleceń dotyczących bezpieczeństwa AI dla całej rady dyrektorów firmy. W tym przypadku „bezpieczeństwo” częściowo oznacza zwykłe „nie pozwolimy, aby AI wymknęło się spod kontroli i przejęło świat”. Jednak obejmuje również szerszy zestaw „procesów i zabezpieczeń”, które firma opisała w aktualizacji dotyczącej bezpieczeństwa z 21 maja, związanej z badaniami nad zgodnością, ochroną dzieci, utrzymaniem integralności wyborów, oceną wpływów społecznych i wdrażaniem środków bezpieczeństwa.

OpenAI twierdzi, że pierwszym zadaniem komitetu będzie ocena i dalszy rozwój tych procesów i zabezpieczeń w ciągu najbliższych 90 dni. Na koniec tego okresu komitet przedstawi swoje zalecenia całej radzie, a OpenAI publicznie poda aktualizację dotyczącą przyjętych zaleceń.

OpenAI informuje, że wielu ekspertów technicznych i politycznych, w tym Aleksander Madry (szef ds. gotowości), Lilian Weng (szef ds. systemów bezpieczeństwa), John Schulman (szef ds. nauki o zgodności), Matt Knight (szef ds. bezpieczeństwa) i Jakub Pachocki (główny naukowiec), również będzie pełniło funkcje w nowym komitecie.

Ogłoszenie jest znaczące na kilka sposobów. Po pierwsze, jest to reakcja na negatywną prasę, która wynikła z rezygnacji członków zespołu OpenAI Superalignment, Ilya Sutskevera i Jana Leike, dwa tygodnie temu. Ten zespół miał za zadanie „sterowanie i kontrolowanie systemów AI znacznie mądrzejszych od nas”, a ich odejście wywołało krytykę ze strony niektórych członków społeczności AI (a także samego Leike), że OpenAI brak zaangażowania w bezpieczne rozwijanie zaawansowanej AI. Inni krytycy, jak główny naukowiec AI w Meta, Yann LeCun, uważają, że firma nie jest bliska opracowania AGI, więc obawy o brak bezpieczeństwa dla superinteligentnej AI mogą być przesadzone.

Po drugie, od dłuższego czasu krążą plotki, że postęp w dużych modelach językowych (LLM) ostatnio się zatrzymał na poziomie zdolności podobnych do GPT-4. Dwa główne konkurencyjne modele, Claude Opus firmy Anthropic i Gemini 1.5 Pro firmy Google, mają podobne możliwości do rodziny GPT-4. Niedawno, gdy wielu spodziewało się, że OpenAI wypuści nowy model AI, który wyraźnie przewyższy GPT-4 Turbo, firma zamiast tego wypuściła GPT-4o, który jest mniej więcej równy w zdolnościach, ale szybszy. Podczas tej premiery firma skupiła się na efektownym nowym interfejsie konwersacyjnym zamiast na dużej aktualizacji wewnętrznej.

Wcześniej informowaliśmy o plotkach dotyczących GPT-5, który miałby pojawić się latem, ale w związku z tym ostatnim ogłoszeniem, wydaje się, że plotki mogły dotyczyć GPT-4o. Jest całkiem możliwe, że OpenAI nie jest bliskie wypuszczenia modelu, który mógłby znacząco przewyższyć GPT-4. Ponieważ firma milczy w tej kwestii, musimy zaczekać.

Powiązane