OpenAI zmaga się z problemami związanymi z bezpieczeństwem

OpenAI, lider w wyścigu o stworzenie sztucznej inteligencji (AI), stoi w obliczu poważnych zarzutów dotyczących bezpieczeństwa. Najnowszy raport The Washington Post dodaje do listy rosnących oskarżeń.

Wątpliwości dotyczące testów bezpieczeństwa

Anonimowy pracownik OpenAI w rozmowie z The Washington Post wyraził obawy, że firma pospieszyła się z testami bezpieczeństwa przed wprowadzeniem swoich produktów na rynek.

Te obawy nie są odosobnione. Obecni i byli pracownicy OpenAI niedawno podpisali otwarty list, w którym domagają się lepszych praktyk w zakresie bezpieczeństwa i przejrzystości. List został opublikowany niedługo po tym, jak zespół ds. bezpieczeństwa w OpenAI został rozwiązany po odejściu współzałożyciela, Ilyi Sutskevera.

OpenAI odpowiada na zarzuty

OpenAI stoi przed poważnymi wyzwaniami, ale stara się łagodzić sytuację.

Jesteśmy dumni z naszego dotychczasowego dorobku w dostarczaniu najzdolniejszych i najbezpieczniejszych systemów AI i wierzymy w nasze naukowe podejście do rozwiązywania ryzyka.

Rzeczniczka OpenAI, Taya Christianson

Stawka związana z bezpieczeństwem AI jest ogromna. Raport zamówiony przez Departament Stanu USA w marcu stwierdził, że rozwój zaawansowanej AI i AGI może destabilizować globalne bezpieczeństwo w sposób przypominający wprowadzenie broni jądrowej.

Obecne kontrowersje wokół OpenAI wymagają od organizacji pilnych działań na rzecz większej transparentności i solidniejszych protokołów bezpieczeństwa. W obliczu rosnącej krytyki ze strony pracowników i obserwatorów, OpenAI musi podjąć zdecydowane kroki, aby zapewnić, że rozwój ich technologii będzie odbywał się w sposób odpowiedzialny i bezpieczny dla społeczeństwa.

Źródło:

https://www.theverge.com/2024/7/12/24197142/openai-safety-concerns-agi

Posted by
Łukasz Stachurski

Dziennikarz i copywriter specjalizujący się w tematyce e-commerce. Prywatnie miłośnik kina i nowych technologii. Szanuje ojczysty język, nie lubi przy tym zbędnych zapożyczeń.