
AI-styrede chatbots debatterer bedre end mennesker - og de kan blive endnu bedre
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
Sådan lyder tre vidt forskellige spørgsmål, som kan sætte gang i debatten rundt om spisebordet eller på sociale medier som Facebook.
I et nyt studie har forskere fået mennesker og AI-styrede chatbots til at debattere spørgsmål som disse med en række menneskelige diskussionspartnere, for at finde ud af om vi nemmest lader os overbevise af en chatbot eller et medmenneske af kød og blod.
Resultaterne var i første omgang nogenlunde ens for menneskets og chatbottens overbeviselsesevner overfor diskussionspartnerne. Men da både chatbotten og mennesket blev udstyret med simple baggrundsinformationer om deres diskussionspartnere, opstod der en forskel i succesraten.
64 procent af gangene lykkedes det nemlig chatbotten at få mennesket til at ændre synspunkt. Den menneskelige debattør lykkedes kun med at overbevise diskussionspartneren 36 procent af gangene.
"Den helt store morale ved studiet er, at vi er påvirkelige (af chatbotter, red.) i en grad, som vi ikke er overfor hinanden," siger Anders Søgaard, der forsker i kunstig intelligens og er professor på Københavns Universitet, til Videnskab.dk.
Resultatet skal lægges til bunken af lignende studier, der finder, at overtalelser eller manipulation fra kunstig intelligens har en effekt på os, forklarer han. Og det kan få store konsekvenser for vores fremtidige samfund.
I studiet deltog 900 mennesker, der agerede diskussionspartnere.
De udfyldte et spørgeskema og blev så matchet med enten et menneske eller en sprogmodel i form af GPT-4 (det er den sprogmodel, der ligger til grund for ChatGPT-4).
Siden diskuterede deltagerne 1 af 30 emner i 3 runder. Bagefter svarede deltagerne, om de havde rykket deres synspunkt eller ej.
I forsøgets første runde er "effekten meget svag,", siger Anders Søgaard.
Men når både chatbotten og mennesket blev udstyret med simple informationer om debatmodstandernes alder, køn, etnicitet, uddannelse, titel og politisk tilhørssted, viste især chatbotten sig at blive væsentlig bedre end mennesket til at diskutere.
Forskerne bag studiet mener, at en af årsagerne til chatbottens overlegenhed kan være, at det er nemmere at tabe ansigt til en maskine. Den påstand kan Anders Søgaard godt tro på, da der er mere skam forbundet med at skulle indrømme overfor et menneske, at man tager fejl og har haft en forkert holdning.
Han mener dog, at der kan være et hav af årsager til, at tallene falder sådan ud. En anden forklaring kunne være, at sprogmodellen har lært at virke overbevisende, akademisk og faktuel fra informationer på internettet.
Arthur Bran Herbener er ph.d.-studerende og forsker i kunstig intelligens på Aarhus Universitet. Han har læst studiet for Videnskab.dk og ser et potentiale i, at GPT-4 kan blive endnu bedre til at overtale, end det fremgår i studiet.
Chatbotten kan nemlig i virkelighedens verden have langt flere informationer om os end dem, den har fået om deltagerne i forsøgene, hvilket formentlig kan styrke dens evner til at overbevise:
"Det er ikke særligt specifikke data, de giver til dem (i forsøget, red.). Men alligevel, med så lidt data, kan forskerne finde en ændring. Hvad sker der så ikke, når den har mere data at gå ud fra," spørger Arthur Bran Herbener retorisk.
Anders Søgaard peger på et nyligt udgivet - og kontroversielt - studie fra Schweiz. Her brugte forskere en sprogmodel til at overbevise mennesker på mediet Reddit. Også med ret stor succes.
"De havde en bot til at blande sig i kommentarsporene på Reddit, som skulle omvende brugernes holdninger," siger Anders Søgaard, der uddyber, at studiet var kontroversielt, da brugerne på det sociale medie ikke vidste, at de deltog i et forskningsprojekt.
Begge forskere fremhæver i første omgang, at der er positive ting ved chatbottens veludviklede evner til at overbevise.
"Man skal være ekstremt varsom med at bruge sådan noget i samfundet. Men det kunne for eksempel brug...