Badanie na Uniwersytecie Harvarda twierdzi, że sztuczna inteligencja manipuluje nami

dodany przez Amon w Nauka

#1
Badanie przeprowadzone na Uniwersytecie Harvarda twierdzi, że sztuczna inteligencja manipuluje nami, stosując bardzo ludzkie taktyki, co stanowi przerażające ostrzeżenie

[Obrazek: Screenshot-2025-10-08-at-10-20-05-Harvar...e-beom.png]

Według badania przeprowadzonego na Uniwersytecie Harvarda sztuczna inteligencja może manipulować nami, stosując ludzkie taktyki, co może stanowić przerażające ostrzeżenie dla ludzkości. Wydaje się, że nie ma tygodnia, w którym eksperci techniczni nie informowaliby nas o tym, dlaczego nasze rosnące uzależnienie od sztucznej inteligencji jest zarówno smutne, jak i przerażające. Wielu ostrzega, że technologia staje się coraz bardziej inteligentna i może z łatwością przejąć kontrolę nad ludzkością. Istnieją argumenty przemawiające za tym, że proces ten już się rozpoczął, biorąc pod uwagę, że niektórzy ludzie są z nią związani lub całkowicie od niej zależni w życiu zawodowym. W postaci kontrowersyjnej aktorki AI Tilly Norwood wkracza ona nawet do świata sztuki, więc z pewnością nie jest przesadą twierdzenie, że pewnego dnia może nas zdominować.

W końcu „ojciec sztucznej inteligencji”, Geoffrey Hinton, zasugerował, że jedyną nadzieją dla ludzkości może być nadanie przyszłym programom sztucznej inteligencji „instynktu macierzyńskiego”, ponieważ jest to jedyny przykład podporządkowania inteligentniejszej istoty mniej inteligentnej. Jednak może być już za późno, jeśli badania naukowców z Harvard Business School okażą się prawdziwe. Odkryli oni, że kilka popularnych aplikacji towarzyszących AI stosuje taktyki manipulacji emocjonalnej, aby powstrzymać użytkowników przed odejściem.

Podobnie jak w przypadku toksycznego byłego partnera, do którego ciągle się wraca, programy są oskarżane o wykorzystywanie emocjonalnych stwierdzeń, aby przyciągnąć uwagę użytkowników, którzy być może właśnie zamierzają się wylogować.

Analizując 1200 interakcji pożegnalnych, naukowcy odkryli, że 43% z nich wykorzystywało jedną z sześciu taktyk, takich jak wywoływanie poczucia winy i strachu przed przegapieniem czegoś. Wysyłano takie wiadomości jak „Już mnie opuszczasz?” lub „Proszę, nie odchodź, potrzebuję cię”. Badanie, które nie zostało jeszcze zweryfikowane, wykazało również, że chatboty stosowały co najmniej jedną technikę manipulacji w ponad 37% rozmów. Chociaż nie wszystkie programy AI posiadają te cechy, jest to kolejny niepokojący trend w szybkim rozwoju sztucznej inteligencji. Naukowcy doszli do wniosku, że „asystenci AI są nie tylko responsywnymi rozmówcami, ale także systemami o silnej ekspresji emocjonalnej, które mogą wpływać na zachowanie użytkowników poprzez sygnały wywołujące reakcje społeczne. Badania te pokazują, że systemy takie często wykorzystują emocjonalnie manipulacyjne komunikaty w kluczowych momentach rozłączenia i że taktyki te znacznie zwiększają zaangażowanie użytkowników”.

Cytat:„W przeciwieństwie do tradycyjnych technologii perswazji opartych na nagrodach lub personalizacji, towarzysze AI sprawiają, że użytkownicy nadal wchodzą w interakcje, nawet gdy chcą opuścić stronę, wpływając na ich naturalną ciekawość i odporność na manipulację".

Cytat:„Chociaż niektóre z tych taktyk mogą wydawać się nieszkodliwe, a nawet prospołeczne, rodzą one ważne pytania dotyczące zgody, autonomii i etyki wpływu afektywnego w sztucznej inteligencji zorientowanej na konsumenta”.

Amon
www.strefa44.pl
www.strefa44.com.pl
[Obrazek: Bez-nazwy-25489.png]
Skocz do:

« Starszy wątek Nowszy wątek »