OpenAI, lider w wyścigu o stworzenie sztucznej inteligencji (AI), stoi w obliczu poważnych zarzutów dotyczących bezpieczeństwa. Najnowszy raport The Washington Post dodaje do listy rosnących oskarżeń.
Wątpliwości dotyczące testów bezpieczeństwa
Anonimowy pracownik OpenAI w rozmowie z The Washington Post wyraził obawy, że firma pospieszyła się z testami bezpieczeństwa przed wprowadzeniem swoich produktów na rynek.
Te obawy nie są odosobnione. Obecni i byli pracownicy OpenAI niedawno podpisali otwarty list, w którym domagają się lepszych praktyk w zakresie bezpieczeństwa i przejrzystości. List został opublikowany niedługo po tym, jak zespół ds. bezpieczeństwa w OpenAI został rozwiązany po odejściu współzałożyciela, Ilyi Sutskevera.

OpenAI odpowiada na zarzuty
OpenAI stoi przed poważnymi wyzwaniami, ale stara się łagodzić sytuację.
Jesteśmy dumni z naszego dotychczasowego dorobku w dostarczaniu najzdolniejszych i najbezpieczniejszych systemów AI i wierzymy w nasze naukowe podejście do rozwiązywania ryzyka.
Rzeczniczka OpenAI, Taya Christianson
Stawka związana z bezpieczeństwem AI jest ogromna. Raport zamówiony przez Departament Stanu USA w marcu stwierdził, że rozwój zaawansowanej AI i AGI może destabilizować globalne bezpieczeństwo w sposób przypominający wprowadzenie broni jądrowej.
Obecne kontrowersje wokół OpenAI wymagają od organizacji pilnych działań na rzecz większej transparentności i solidniejszych protokołów bezpieczeństwa. W obliczu rosnącej krytyki ze strony pracowników i obserwatorów, OpenAI musi podjąć zdecydowane kroki, aby zapewnić, że rozwój ich technologii będzie odbywał się w sposób odpowiedzialny i bezpieczny dla społeczeństwa.
Źródło:
https://www.theverge.com/2024/7/12/24197142/openai-safety-concerns-agi