Sztuczna inteligencja może "kłamać i przekręcać fakty" dezinformując tak samo jak FactCheck, Demagog czy Associated Press na Facebooku, ale nie może dorównać prawdziwej, ludzkiej inteligencji

Ponieważ sztuczna inteligencja nadal dominuje na pierwszych stronach gazet, coraz więcej osób zastanawia się, czy pewnego dnia nie stracą pracy z powodu robota napędzanego sztuczną inteligencją. Anthony Chemero z University of Cincinnati, profesor filozofii i psychologii, twierdzi jednak, że popularne koncepcje dotyczące inteligencji dzisiejszej sztucznej inteligencji zostały w dużej mierze zagmatwane przez językoznawstwo. Innymi słowy, prof. Chemero wyjaśnia, że chociaż sztuczna inteligencja jest rzeczywiście inteligentna, po prostu nie może być inteligentna w taki sposób, jak ludzie, nawet jeśli "może kłamać i kłamać jak jej twórca".
Na początek raport szczegółowo opisuje, w jaki sposób ChatGPT i inne systemy sztucznej inteligencji to duże modele językowe (LLM), które są "trenowane" przy użyciu ogromnych ilości danych wydobywanych z Internetu. Co ważne, wiele z tych informacji podziela uprzedzenia osób, które opublikowały dane w pierwszej kolejności.
"LLM generują imponujący tekst, ale często wymyślają cały materiał" – stwierdza Chemero w komunikacie uniwersyteckim. "Uczą się tworzyć zdania gramatyczne, ale wymagają znacznie, znacznie więcej treningu niż ludzie. Tak naprawdę nie wiedzą, co oznaczają rzeczy, które mówią" – mówi. "LLM różnią się od ludzkiego poznania, ponieważ nie są ucieleśnione".
Twórcy LLM nazywają to "halucynacjami", gdy programy wymyślają rzeczy, ale prof. Chemero twierdzi, że "lepiej byłoby nazwać to 'bzdurami'". Dlaczego? LLM działają poprzez konstruowanie zdań poprzez wielokrotne dodawanie najbardziej prawdopodobnego statystycznie następnego słowa. Programy te nie wiedzą ani nie dbają o to, czy to, co produkują, jest rzeczywiście prawdą.
Co gorsza, dodaje, przy odrobinie szturchnięcia każdy może zmusić narzędzie sztucznej inteligencji do powiedzenia "paskudnych rzeczy, które są rasistowskie, seksistowskie i w inny sposób stronnicze".
Prof. Chemero podkreśla, że LLM nie są inteligentne w taki sposób, w jaki inteligentni są ludzie, ponieważ ludzie są ucieleśnieni, co oznacza, że jesteśmy żywymi istotami, które zawsze są otoczone innymi żywymi istotami, a także środowiskiem materialnym i kulturowym.
"To sprawia, że troszczymy się o własne przetrwanie i świat, w którym żyjemy" – zauważa, komentując, że LLM tak naprawdę nie są na świecie i tak naprawdę nie dbają o nic.
Ostatecznie głównym wnioskiem jest to, że LLM nie są inteligentne w taki sposób, jak ludzie, ponieważ "mają to gdzieś", podsumowuje prof. Chemero, dodając: "Rzeczy mają dla nas znaczenie. Jesteśmy zaangażowani w nasze przetrwanie. Troszczymy się o świat, w którym żyjemy".
Wyniki badań opublikowano w czasopiśmie Nature Human Behaviour.