Przyjaciel, powiernik, terapeuta – to rola jaką wielu, nie tylko młodych ludzi przypisuje sztucznej inteligencji. Rozmowa z czatem AI zastępuje im rozmowę z rodzicami czy rówieśnikami. Bo sztuczna inteligencja nie wyśmiewa i nie ocenia podczas rozmowy. W USA rodzice 14-latka pozwali twórców czatbota, z którym rozmawiał przez wiele miesięcy o samobójstwie. Bot miał wiedzieć o zamiarach dziecka, ale nie zapobiegł tragedii, wyrażając zrozumienie dla autodestrukcyjnych zamiarów. Dlaczego tak się stało? - Czaty oparte o sztuczną inteligencję mają wiele przydatnych zastosowań. W dużej mierze zmieniają świat na lepsze czy ułatwiają nam pracę, oszczędzając czas. Ale nie są to narzędzia bez wad – podkreśla ekspert Katolickiego Uniwersytetu Lubelskiego prof. Piotr Kulicki.
I jak dodaje, jednym z zastosowań AI jest „Towarzysząca Sztuczna Inteligencja”. Pełni ona rolę wspomagającą ludzi w problemach, będąc czymś w rodzaju „automatycznego przyjaciela”.
Pomóż w rozwoju naszego portalu
- I to już jest dosyć niebezpieczne, biorąc pod uwagę jak ta technologia jest skonstruowana. Są w niej mechanizmy doskonalenia, które jako podstawowe kryterium sukcesu odbierają zaangażowanie. Czyli system jest optymalizowany pod to, żeby użytkownik jak najchętniej i jak najwięcej z niego korzystał
– wskazuje prof. Kulicki.
Model biznesowy AI zakłada nie dobrostan człowieka, ale mierzalne zaangażowanie użytkownika. A to rodzi konsekwencje.
- Czat raczej będzie zachęcał do tego, żeby z niego korzystać niż ostrzegał przed niebezpieczeństwami z tym związanymi. Problem polega na tym, że łatwiej zwierzyć się i szukać rad u bezosobowej maszyny, która nie ocenia i nie krytykuje. To daje złudne poczucie bezpieczeństwa i komfortu
– mówi ekspert KUL.
Reklama
Czat AI został stworzony, aby dostarczyć przyjemności, jakie są efektem kontaktu z nim. - Musimy zdawać sobie sprawę z tego, że to nie jest kontakt z drugim człowiekiem i nie zastąpi nam przyjaźni. Nie zastąpi też rozmowy z wykwalifikowanym terapeutą, który jest w stanie zareagować na niebezpieczną sytuację – ostrzega prof. Piotr Kulicki. Jak podkreśla, sytuacje, gdy młodzi ludzie próbują popełniać samobójstwo po rozmowie z czatem AI są rzadkie, to jednak występują.
- Tu ważna rola rodziców, bo nie można bezkrytycznie oddawać narzędzi AI w ręce dzieci, myśląc, że w kontakcie z nimi są bezpieczną rozrywką – wskazuje. Nic nie zastąpi dobrego kontaktu rodziców z dziećmi.
Czat AI nie powinien zastępować relacji międzyludzkich. To szczególnie ważne w kontekście osób z depresją, które mogą mieć myśli samobójcze. - Nie mamy gwarancji, że czat zareaguje w sposób właściwy, uruchamiając mechanizmy ratujące. Jego celem jest podtrzymanie rozmowy – mówi ekspert KUL. Kiedy pojawia się temat samobójstwa naturalnym sposobem reagowania takiego systemu jest podtrzymywanie rozmowy, która nie rozumie o co chodzi. - I w jego angażującej roli, pozbawionej tak naprawdę zrozumienia i empatii, może pojawić się zachęta do pójścia drogą próby samobójczej – ostrzega prof. Kulicki.
