Cloudflare, jedna z największych firm zajmujących się infrastrukturą internetową, ogłosiła wprowadzenie narzędzia AI Labyrinth. Jego celem jest walka z botami, które bez pozwolenia przeszukują strony w poszukiwaniu danych do trenowania modeli AI. Zamiast blokować takie skrypty, Cloudflare zaprasza je do wędrówki po sieci fałszywych stron generowanych przez sztuczną inteligencję, skutecznie marnując ich zasoby i dezorientując algorytmy.
Jak działa AI Labyrinth?
Tradycyjne metody ochrony, jak plik robots.txt, często zawodzą, ponieważ firmy zajmujące się AI, w tym Anthropic czy Perplexity AI, były oskarżane o ignorowanie tych zabezpieczeń. Cloudflare twierdzi, że każdego dnia rejestruje ponad 50 miliardów żądań od botów. Ich blokowanie prowadzi jedynie do zmiany taktyki przez atakujących, dlatego AI Labyrinth działa inaczej – nie zatrzymuje botów, ale zmusza je do przetwarzania bezwartościowych danych.
Nowe narzędzie Cloudflare to pułapka na boty. Gdy system wykryje podejrzane zachowanie, kieruje crawlera do łańcucha fałszywych stron, które dla ludzkiego użytkownika pozostają niewidoczne. Im dłużej bot porusza się po tym labiryncie, tym więcej zasobów zużywa, co spowalnia jego działanie i utrudnia dotarcie do rzeczywistych danych.
Cloudflare zapewnia, że generowane treści są zgodne z naukowymi faktami, ale nie mają związku z rzeczywistymi danymi danej strony. Dzięki temu unika się rozprzestrzeniania dezinformacji. Firma planuje dalszy rozwój narzędzia – kolejne wersje AI Labyrinth mają tworzyć całe sieci powiązanych ze sobą fałszywych stron, przez które boty będą krążyć tygodniami.
Źródło:https://www.theverge.com/