Sztuczna inteligencja miała zrewolucjonizować dostęp do informacji, jednak nowe badanie BBC pokazuje, że rzeczywistość odbiega od oczekiwań. Analiza odpowiedzi czterech popularnych asystentów AI – ChatGPT, Microsoft Copilot, Google Gemini i Perplexity – wykazała, że aż 91% ich odpowiedzi na pytania dotyczące aktualnych wydarzeń zawierało błędy lub nieścisłości.
Dziennikarze BBC zadali AI 100 pytań dotyczących bieżących wiadomości i poprosili o cytowanie artykułów BBC jako źródeł. Wyniki były alarmujące:
- 51% odpowiedzi miało poważne błędy,
- 19% cytatów zawierało nieprawdziwe dane,
- 13% treści było całkowicie sfabrykowanych.
Przykłady? Google Gemini błędnie twierdził, że brytyjska służba zdrowia (NHS) odradza e-papierosy, choć w rzeczywistości zaleca je jako metodę rzucania palenia. Inne chatboty podawały fałszywe informacje o śmierci znanego prezentera telewizyjnego, a także nieaktualne dane dotyczące polityków, którzy już ustąpili ze stanowisk.
Dlaczego to problem?
Zdaniem BBC, skala błędów w treściach generowanych przez AI podważa wiarygodność informacji i grozi dezinformacją na masową skalę. Nawet gdy chatboty podają fakty, często robią to bez kontekstu, co może prowadzić do wypaczenia rzeczywistości.
Więcej informacji tutaj:
Raport podkreśla, że rzetelne informacje są podstawą funkcjonowania społeczeństwa. Brak kontroli nad treściami generowanymi przez AI sprawia, że użytkownicy nieświadomie mogą przyjmować nieprawdziwe dane jako fakty. To szczególnie istotne w dobie rosnącej roli sztucznej inteligencji w marketingu i mediach.
Co to oznacza dla marketingu?
Firmy coraz częściej korzystają z AI do tworzenia treści, jednak raport BBC pokazuje, że ślepe zaufanie do technologii może zaszkodzić reputacji marki. Na co zwrócić uwagę?
- Weryfikacja faktów – AI nie zawsze podaje prawdziwe informacje, dlatego treści powinny być sprawdzane przez ludzi.
- Kontekst ma znaczenie – treści generowane przez AI mogą pomijać ważne szczegóły, co prowadzi do błędnych interpretacji.
- Odpowiednie źródła – jeśli AI cytuje artykuły, należy upewnić się, że podane informacje są zgodne z oryginałem.
Sztuczna inteligencja ma ogromny potencjał, ale wymaga ludzkiego nadzoru. Firmy korzystające z AI w marketingu powinny informować odbiorców, jak powstają treści, by budować zaufanie i unikać dezinformacji.
Źródło: