Chatbot Google pod ostrzałem. Nie chce tworzyć wizerunków białych ludzi

Google ma problem. Nowy chatbot nie chce tworzyć białych ludzi | Newsy - PlanetaGracza
Newsy Rozrywka Technologie

W sieci pojawia się coraz więcej kontrowersji związanych z narzędziem Google Gemini. Zaawansowany chatbot podobno w ogóle nie chce tworzyć podobieństw białych ludzi.

W sieci zawrzało, gdyż nowy chatbot Google został oskarżony o rasizm i promowanie idei “woke”. Tak przynajmniej uważa część internautów, którzy niezależnie od zasugerowanych wytycznych, otrzymują zdjęcia z osobami różnych kolorów skóry. Ale nie białych.

Google Gemini oskarżane o rasizm

Biznesmen Mike Solana jest tylko jedną z wielu osób w sieci, które dostrzegły rzekomy problem związany ze sztuczną inteligencją Google. Pod jego postem pojawiło się wiele odpowiedzi, z których wynika, że Gemini faktycznie ma odmawiać generowania wizerunków osób rasy kaukaskiej. I dotyczyć ma to wielu różnych wskazówek. Proszono o papieża, średniowiecznego rycerza, fana muzyki country i tak dalej. Na obrazkach zawsze ma pojawiać się ktoś o innym kolorze skóry niż biały.

W niektórych przypadkach sytuacja ma być wyjątkowo kuriozalna. Prośba o generowanie obrazów na podstawie sugestii “amerykańscy rewolucjoniści” dostarcza obrazy wygenerowane na podstawie “różnorodni amerykańscy rewolucjoniści”. Wielu internautów twierdzi, że testowało różne podpowiedzi, co tylko potwierdziło istnienie problemu.

Google szybko odniosło się do oskarżeń, twierdząc, że AI “minęło się z celem”.

Generowanie obrazu przez sztuczną inteligencję Gemini generuje szeroką gamę ludzi. I generalnie jest to dobra rzecz, ponieważ korzystają z niej ludzie na całym świecie. Ale tutaj minęło się z celem. Pracujemy nad natychmiastową poprawą tego rodzaju obrazów.

– przyznał Jack Krawczyk, starszy dyrektor Gemini Experiences (za BBC)

To nie pierwszy raz, gdy Google oskarżane jest o rasizm. Wcześniej problem dotyczył m.in. narzędzia do obrazów firmy, które miało wyświetlać rodzinę o ciemnym kolorze skóry podpisaną jako “goryle”. Z kolei narzędzie DALL-E piętnowano było za coś zupełnie innego – miało faworyzować generowanie przede wszystkim ludzi białych.

Artur Łokietek
O autorze

Artur Łokietek

Redaktor
Zamknięty w horrorach lat 80. specjalista od seriali, filmów i wszystkiego, co dziwne i niespotykane, acz niekoniecznie udane. Pała szczególnym uwielbieniem do dobrych RPG-ów i wciągających gier akcji. Ekspert od gier z dobrą fabułą, ale i koneser tych z gorszą. W przeszłości miłośnik PlayStation, obecnie skupiający się przede wszystkim na PC i relaksie przy Switchu.
Udostępnij:

Podobne artykuły

Zobacz wszystkie