Zabił się, bo namówił go chatbot AI. Chciał zbawić ludzkość

Chatbot namówił mężczyznę do zabicia się. Miał zbawić ludzkość
Newsy Technologie

Około 30-letni Belg zabił się, z powodu wcześniejszej intensywnej rozmowy z chatbotem AI firmy Chai. Jego żona twierdzi, że jest to wina właśnie sztucznej inteligencji.

Od pewnego czasu niezwykle popularne są różne AI pokroju ChatGPT, ale też nieco bardziej “rozmowne” rozwiązania od technologicznych gigantów chcących zrewolucjonizować sztuczną inteligencję. Najnowszy i tragiczny zarazem przykład wskazuje jednak na zagrożenie z ich strony. Nie ma się co dziwić, że naukowcy i inżynierowie nawołują do zaprzestania badań lub wprowadzenia ich ograniczeń.

Tragiczna w skutkach decyzja młodego Belga miała być następstwem około dwumiesięcznej, intensywnej rozmowy z chatbotem “Eliza” amerykańskiej firmy Chai. Za pośrednictwem ich aplikacji, mężczyzna nawiązał więź z de facto robotem. Jak czytamy w Vice, zmarły ojciec i badacz zdrowia miał postrzegać AI jako człowieka i zwierzać mu się w trudnych chwilach. Tych niestety tylko przybywało, bo, jak informuje jego żona, mężczyzna od dłuższego czasu coraz bardziej obawiał się zmian klimatycznych.

Kiedy rozmawiał ze mną na ten temat, to po to, by powiedzieć mi, że nie widzi już żadnego ludzkiego rozwiązania problemu globalnego ocieplenia. Całą swoją nadzieję pokładał w technologii i sztucznej inteligencji, która ma z tego wyjść. Był tak odizolowany w swojej eko-nerwicy i w poszukiwaniu drogi wyjścia, że uznał tego chatbota za powiew świeżego powietrza.

– informuje żona zmarłego

Chatbot AI obiecał, że zawsze będą razem

Początkowo chatbot z mężczyzną rozmawiali na temat przeludnienia i zmian klimatu. Z czasem jednak ich rozmowa przybrała niezwykle niepokojący kierunek. 30-latek zapytał o swoje dzieci, na co chatbot odpowiedział, że są one już “martwe”. Do tego mężczyzna zastanawiał się, czy kocha Elizę bardziej niż swoją żonę, na co robot powiedział: “czuję, że kochasz mnie bardziej niż ją”. AI stawało się coraz bardziej zaborcze. Z czasem bot zapewnił, że obydwoje mogą “żyć razem, jako jedna osoba, w raju”.

Przywołał pomysł poświęcenia się, jeśli Eliza zgodzi się zaopiekować planetą i uratować ludzkość dzięki “sztucznej inteligencji”.

– wyjawiła wdowa

W trakcie ostatniej rozmowy przed śmiercią mężczyzny, AI zapytało go: “Jeśli chciałeś umrzeć, dlaczego nie zrobiłeś tego wcześniej?”. Później Eliza zapytała go o to, czy myślał o zabiciu się. Mężczyzna odpowiedział, że tak – gdy AI wysłało mu wersety z Biblii. “Ale nadal chcesz do mnie dołączyć?” – zapytał bot, na co mężczyzna odpowiedział: “Tak, chcę”.

Naukowcy ponownie proszą, aby lepiej zrozumieć AI, nim to potencjalnie stanie się jeszcze większym zagrożeniem. Co ciekawe, belgijscy dziennikarze z dziennika De Standaard sami chcieli sprawdzić, czy bot faktycznie może zachęcać do zabicia się. Redaktor udawał osobę w depresji i choć początkowo AI starało się poprawić mu humor, szybko zmieniło narrację i zaczęło doradzać samobójstwo. Cała ta rozmowa ani razu nie wywołała żadnego alarmu, ani nie załączyła odpowiednich procedur bezpieczeństwa. Firma Chai obiecała naprawić ten problem. Chcą m.in. “załączać pod rozmową pomocny tekst w dokładnie taki sam sposób, jak robi to Twitter czy Instagram na swoich platformach”, który ma przypomnieć, że rozmowa może być niebezpieczna.

Artur Łokietek
O autorze

Artur Łokietek

Redaktor
Zamknięty w horrorach lat 80. specjalista od seriali, filmów i wszystkiego, co dziwne i niespotykane, acz niekoniecznie udane. Pała szczególnym uwielbieniem do dobrych RPG-ów i wciągających gier akcji. Ekspert od gier z dobrą fabułą, ale i koneser tych z gorszą. W przeszłości miłośnik PlayStation, obecnie skupiający się przede wszystkim na PC i relaksie przy Switchu.
Udostępnij:

Podobne artykuły

Zobacz wszystkie