Sztuczna inteligencja i dezinformacja – raport BBC ujawnia problem

Sztuczna inteligencja i dezinformacja – raport BBC ujawnia problem

Sztuczna inteligencja miała zrewolucjonizować dostęp do informacji, jednak nowe badanie BBC pokazuje, że rzeczywistość odbiega od oczekiwań. Analiza odpowiedzi czterech popularnych asystentów AI – ChatGPT, Microsoft Copilot, Google Gemini i Perplexity – wykazała, że aż 91% ich odpowiedzi na pytania dotyczące aktualnych wydarzeń zawierało błędy lub nieścisłości.

Dziennikarze BBC zadali AI 100 pytań dotyczących bieżących wiadomości i poprosili o cytowanie artykułów BBC jako źródeł. Wyniki były alarmujące:

  • 51% odpowiedzi miało poważne błędy,
  • 19% cytatów zawierało nieprawdziwe dane,
  • 13% treści było całkowicie sfabrykowanych.

Przykłady? Google Gemini błędnie twierdził, że brytyjska służba zdrowia (NHS) odradza e-papierosy, choć w rzeczywistości zaleca je jako metodę rzucania palenia. Inne chatboty podawały fałszywe informacje o śmierci znanego prezentera telewizyjnego, a także nieaktualne dane dotyczące polityków, którzy już ustąpili ze stanowisk.

Dlaczego to problem?

Zdaniem BBC, skala błędów w treściach generowanych przez AI podważa wiarygodność informacji i grozi dezinformacją na masową skalę. Nawet gdy chatboty podają fakty, często robią to bez kontekstu, co może prowadzić do wypaczenia rzeczywistości.

Więcej informacji tutaj:

Raport podkreśla, że rzetelne informacje są podstawą funkcjonowania społeczeństwa. Brak kontroli nad treściami generowanymi przez AI sprawia, że użytkownicy nieświadomie mogą przyjmować nieprawdziwe dane jako fakty. To szczególnie istotne w dobie rosnącej roli sztucznej inteligencji w marketingu i mediach.

Co to oznacza dla marketingu?

Firmy coraz częściej korzystają z AI do tworzenia treści, jednak raport BBC pokazuje, że ślepe zaufanie do technologii może zaszkodzić reputacji marki. Na co zwrócić uwagę?

  • Weryfikacja faktów – AI nie zawsze podaje prawdziwe informacje, dlatego treści powinny być sprawdzane przez ludzi.
  • Kontekst ma znaczenie – treści generowane przez AI mogą pomijać ważne szczegóły, co prowadzi do błędnych interpretacji.
  • Odpowiednie źródła – jeśli AI cytuje artykuły, należy upewnić się, że podane informacje są zgodne z oryginałem.

Sztuczna inteligencja ma ogromny potencjał, ale wymaga ludzkiego nadzoru. Firmy korzystające z AI w marketingu powinny informować odbiorców, jak powstają treści, by budować zaufanie i unikać dezinformacji.

Źródło:

https://www.searchenginejournal.com

Posted by
Łukasz Stachurski

Dziennikarz i copywriter specjalizujący się w tematyce e-commerce. Prywatnie miłośnik kina i nowych technologii. Szanuje ojczysty język, nie lubi przy tym zbędnych zapożyczeń.