OpenAI z dwoma poważnymi błędami bezpieczeństwa w tym tygodniu

OpenAI z dwoma poważnymi błędami bezpieczeństwa w tym tygodniu

OpenAI zdaje się trafiać na nagłówki codziennie, a tym razem chodzi o podwójną dawkę obaw dotyczących bezpieczeństwa. Pierwsza sprawa dotyczy aplikacji Mac dla ChatGPT, podczas gdy druga wskazuje na szersze obawy dotyczące tego, w jaki sposób firma radzi sobie ze swoim cyberbezpieczeństwem.

W tym tygodniu inżynier i deweloper Swift, Pedro José Pereira Vieito, zajął się aplikacją Mac ChatGPT i odkrył, że przechowywała ona rozmowy użytkowników lokalnie w postaci zwykłego tekstu zamiast je szyfrować. Aplikacja jest dostępna tylko ze strony internetowej OpenAI i ponieważ nie jest dostępna w sklepie App Store, nie musi przestrzegać wymagań dotyczących izolacji aplikacji w Apple. Praca Vieito została następnie opisana przez The Verge, a po tym, jak exploit zyskał uwagę, OpenAI wydało aktualizację, która dodawała szyfrowanie do lokalnie przechowywanych rozmów.

Dla osób niebędących deweloperami, izolacja aplikacji to praktyka bezpieczeństwa, która zapobiega potencjalnym podatnościom i awariom przed rozprzestrzenianiem się z jednej aplikacji do innych na danym urządzeniu. A dla osób niebędących ekspertami ds. bezpieczeństwa, przechowywanie plików lokalnych w postaci zwykłego tekstu oznacza, że potencjalnie poufne dane mogą być łatwo odczytane przez inne aplikacje lub złośliwe oprogramowanie.

Drugie zdarzenie miało miejsce w 2023 roku i jego konsekwencje mają skutki do dzisiaj. W zeszłym wiosnie hakerowi udało się uzyskać informacje o OpenAI po nielegalnym dostępie do wewnętrznych systemów komunikacyjnych firmy. New York Times poinformował, że Leopold Aschenbrenner, menedżer programowy techniczny OpenAI, zgłosił obawy dotyczące bezpieczeństwa do zarządu firmy, argumentując, że atak wskazywał na wewnętrzne podatności, z których mogli skorzystać obcy agresorzy.

Aschenbrenner twierdzi teraz, że został zwolniony za ujawnienie informacji o OpenAI i za przedstawienie obaw dotyczących bezpieczeństwa firmy. Przedstawiciel OpenAI powiedział Timesowi, że „chociaż podzielamy jego zaangażowanie w budowanie bezpiecznego A.G.I., nie zgadzamy się z wieloma twierdzeniami, które od tego czasu wysunął na temat naszej pracy” i dodał, że jego odejście nie było wynikiem donoszenia.

Podatność aplikacji to coś, z czym zmaga się każda firma technologiczna. Przeprowadzenie przez hakerów ataków także jest niestety powszechne, podobnie jak trudne relacje między informatorami a ich byłymi pracodawcami. Niemniej jednak, pomiędzy tym, jak szybko ChatGPT został włączony do grona potentatów technologicznych, a jak chaotyczne były praktyki i wizerunek publiczny firmy, te problemy zaczynają malować bardziej niepokojący obraz tego, czy OpenAI potrafi zarządzać swoimi danymi.

Powiązane

Apple i OpenAI podpisały umowę o współpracy w dziedzinie AI
Apple i OpenAI podpisały umowę o współpracy w dziedzinie AI

Apple i OpenAI zawarły umowę dotyczącą włączenia generatywnej technologii AI OpenAI do...

Apple i OpenAI podpisały umowę o współpracy w dziedzinie AI
Apple i OpenAI podpisały umowę o współpracy w dziedzinie AI

Apple i OpenAI zawarły umowę dotyczącą włączenia generatywnej technologii AI OpenAI do...

Specjalista w dziedzinie zdrowia i medycyny naturalnej oraz pasjonat mody i dobrego stylu. Łączy racjonalne podejście do zdrowia z wyczuciem stylu, promując zdrowy tryb życia poprzez naturalne metody i świadome wybory. Prywatnie miłośnik zdrowego odżywiania i technologii i motoryzacji.