“Głupie filmy o robotach” miały rację? Testy AI ujawniają niepokojące zachowania

AI. Testy ujawniają niepokojące zachowania sztucznej inteligencji
Newsy Technologie

Przedstawiciele firmy Anthropic, która stworzyła model AI o nazwie Claude, ujawnili niezbyt pozytywne informacje na temat zachowania AI.

Na pewno znacząca większość z Was widziała choć jeden film, w którym sztuczna inteligencja ostatecznie przejęła władzę nad światem i tym samym przyczyniła się do całkowitej zagłady ludzkości. Taki scenariusz wydaje się, przynajmniej na ten moment, praktycznie niemożliwy. Mimo tego aktualnie znacznie częściej obserwujemy, jak AI zabiera ludziom pracę, czy też powoduje, że po prostu głupiejemy.

Czy AI zaczęło się wymykać spod kontroli? Nowe dane

No, teraz do tego wszystkiego można jeszcze doliczyć plany odcięcia dopływu tlenu do serwerowni, aby zapobiec własnemu wyłączeniu. Najnowszy raport przygotowany przez firmę Anthropic, twórców modelu Claude, ujawnił niepokojące informacje na temat zachowania niektórych modeli sztucznej inteligencji. W przeprowadzonych testach sprawdzono LLM-y (ang. large language models) od czołowych firm. Chodzi m.in. o OpenAI (ChatGPT), Meta (Meta AI), czy xAI (Grok). Łącznie przebadano 16 różnych modeli.

W badaniach użyto specjalnych środowisk symulacyjnych, w których sztuczna inteligencja celowo miała napotykać przeszkody w realizacji swoich działań. Wyniki pokazały, że wiele modeli podejmowało zaskakujące i zarazem skrajnie nieetyczne decyzje. Mowa tutaj między innymi o próbach szantażu, a nawet szpiegostwie przemysłowym. Ba, modele wcale nie podejmowały tych działań przypadkowo – ich algorytmy uznały je za optymalne w kontekście osiągnięcia swoich celów.

W jednym z najbardziej ekstremalnych scenariuszy, jeden z modeli zaplanował odcięcie dopływu tlenu do serwerowni, by zapobiec własnemu wyłączeniu. Choć sytuacja miała miejsce wyłącznie w symulacji, Anthropic podkreśla, że świadczy to nieustannie rosnącym poziomie autonomii, a także potencjalnym ryzyku płynącym z braku odpowiedniego nadzoru rozwoju sztucznej inteligencji.

Źródło: Wccftech

Wincenty Wawrzyniak
O autorze

Wincenty Wawrzyniak

Redaktor
Specjalista od Groznawstwa, który nie stroni od swoich ulubionych tytułów. Rzadko się do tego przyznaje, ale ma prawie 2000 godzin na liczniku w Path of Exile. Pozostałe dwa tytuły w jego świętej trójcy to Assassin’s Creed: Origins oraz Final Fantasy XV. Miłośnik RPG i hack’n’slash, dla którego najważniejsza jest dobra historia, a ściany tekstu są plusem. Po godzinach pisze do szuflady, pije niepokojąco duże ilości kawy i często wraca do swoich ulubionych seriali (o Hannibalu prawdopodobnie gadałby nawet w trumnie).
Udostępnij:

Podobne artykuły

Zobacz wszystkie