“Głupie filmy o robotach” miały rację? Testy AI ujawniają niepokojące zachowania
Przedstawiciele firmy Anthropic, która stworzyła model AI o nazwie Claude, ujawnili niezbyt pozytywne informacje na temat zachowania AI.
Na pewno znacząca większość z Was widziała choć jeden film, w którym sztuczna inteligencja ostatecznie przejęła władzę nad światem i tym samym przyczyniła się do całkowitej zagłady ludzkości. Taki scenariusz wydaje się, przynajmniej na ten moment, praktycznie niemożliwy. Mimo tego aktualnie znacznie częściej obserwujemy, jak AI zabiera ludziom pracę, czy też powoduje, że po prostu głupiejemy.
Czy AI zaczęło się wymykać spod kontroli? Nowe dane
No, teraz do tego wszystkiego można jeszcze doliczyć plany odcięcia dopływu tlenu do serwerowni, aby zapobiec własnemu wyłączeniu. Najnowszy raport przygotowany przez firmę Anthropic, twórców modelu Claude, ujawnił niepokojące informacje na temat zachowania niektórych modeli sztucznej inteligencji. W przeprowadzonych testach sprawdzono LLM-y (ang. large language models) od czołowych firm. Chodzi m.in. o OpenAI (ChatGPT), Meta (Meta AI), czy xAI (Grok). Łącznie przebadano 16 różnych modeli.
W badaniach użyto specjalnych środowisk symulacyjnych, w których sztuczna inteligencja celowo miała napotykać przeszkody w realizacji swoich działań. Wyniki pokazały, że wiele modeli podejmowało zaskakujące i zarazem skrajnie nieetyczne decyzje. Mowa tutaj między innymi o próbach szantażu, a nawet szpiegostwie przemysłowym. Ba, modele wcale nie podejmowały tych działań przypadkowo – ich algorytmy uznały je za optymalne w kontekście osiągnięcia swoich celów.
W jednym z najbardziej ekstremalnych scenariuszy, jeden z modeli zaplanował odcięcie dopływu tlenu do serwerowni, by zapobiec własnemu wyłączeniu. Choć sytuacja miała miejsce wyłącznie w symulacji, Anthropic podkreśla, że świadczy to nieustannie rosnącym poziomie autonomii, a także potencjalnym ryzyku płynącym z braku odpowiedniego nadzoru rozwoju sztucznej inteligencji.
Źródło: Wccftech