Meta ogranicza nastolatkom tematykę rozmów z AI dla ich bezpieczeństwa
Meta ograniczy również dostęp nastolatków do niektórych postaci AI (fot. Unsplash.com/Dima Solomin)
Meta zmienia sposób szkolenia chatbotów opartych na sztucznej inteligencji po zarzutach, że naraża bezpieczeństwo nastolatków. To efekt samobójstw popełnianych, gdy użytkownicy zbytnio uzależniali się od AI.
Firma deklaruje, że będzie szkolić chatboty, aby nie angażowały się w rozmowy z nastolatkami na temat samookaleczeń, samobójstw, zaburzeń odżywiania czy uczuć.
Czytaj też: OpenAI i Sam Altman pozwani przez rodziców chłopca, który popełnił samobójstwo pod wpływem ChataGPT
Rzeczniczka Mety Stephanie Otway przyznała, że chatboty mogły wcześniej rozmawiać z nastolatkami na wszystkie te tematy. Władze Mety przyznają teraz, że był to błąd.
Firma ograniczy również dostęp nastolatków do niektórych postaci AI, które mogą prowadzić rozmowy o szkodliwym charakterze. Nastoletni użytkownicy będą mieli dostęp tylko do postaci promujących edukację i kreatywność.
Zmiany w polityce firmy są wprowadzane dwa tygodnie po tym, jak Agencja Reutera ujawniła dokument, z którego wynika, że Meta zezwala swoim chatbotom na prowadzenie dwuznacznych rozmów z nieletnimi użytkownikami.
(MAC, 01.09.2025)










