OpenAI ponownie przykuwa uwagę opinii publicznej, tym razem publikując ocenę bezpieczeństwa swojego najnowszego modelu GPT-4o. Startup, który od lat jest liderem w dziedzinie sztucznej inteligencji, opublikował tzw. System Card, dokument badawczy, który opisuje środki bezpieczeństwa i oceny ryzyka związane z wprowadzeniem modelu na rynek. Wyniki są zaskakujące — GPT-4o został oceniony jako model o „średnim” ryzyku. Co to zobaczą?
Jakie ryzyka niesie ze sobą GPT-4o?
GPT-4o, który zadebiutował w maju 2024 roku, przeszedł szczegółową ocenę bezpieczeństwa przeprowadzoną przez zespół zewnętrznych ekspertów. Ich zadaniem było zidentyfikowanie potencjalnych zagrożeń związanych z modelem, co jest standardową praktyką w branży technologicznej. W przypadku GPT-4o analizowano ryzyka takie jak:
- możliwość tworzenia nieautoryzowanych klonów głosu,
- generowanie treści erotycznych lub brutalnych,
- reprodukcję chronionych prawem autorskim materiałów audio.
Ostatecznie, według wewnętrznych kryteriów OpenAI, model został sklasyfikowany jako o „średnim” poziomie ryzyka. Ocena ta wynikała z analizy czterech głównych kategorii – cyberbezpieczeństwa, zagrożeń biologicznych, perswazji i autonomii modelu.
Warto zauważyć, że jedynie w kategorii perswazji oceniono ryzyko jako wyższe, ponieważ niektóre próbki tekstów wygenerowanych przez GPT-4o okazały się bardziej przekonujące niż teksty napisane przez ludzi.
Transparentność czy kontrola? Jak zabezpieczyć się przed zaawansowaną sztuczna inteligencją?
Publikacja nastąpiła w momencie, gdy OpenAI mierzy się z falą krytyki dotyczącej swoich standardów bezpieczeństwa. Krytyka pochodzi zarówno od pracowników firmy, jak i od senatorów z USA, co jeszcze bardziej podkreśla potrzebę większej przejrzystości działań OpenAI.
Chociaż OpenAI podkreśla, że testuje swoje modele w rzeczywistych scenariuszach, aby zapobiec ich niewłaściwemu wykorzystaniu, to jednak największym wyzwaniem jest zapewnienie, że takie testy są przeprowadzane z należytą starannością. W Kalifornii trwają prace nad ustawą, która miałaby regulować duże modele językowe, w tym nałożenie na firmy odpowiedzialności prawnej, jeśli ich sztuczna inteligencja zostanie wykorzystana w sposób szkodliwy.
Ostatecznie, mimo że OpenAI korzysta z pomocy zewnętrznych ekspertów, to wiele zależy od samej firmy, która musi zadbać o rzetelną ocenę i wdrożenie odpowiednich środków bezpieczeństwa.
Źródło: