SSブログ

チャットGPT、思考ゆがめる恐れ デタラメでも断定調、誇張し大げさに回答 米科学誌論考

2023年11月05日(日)

毎日のように,人工知能の話題がメディアをにぎわせる.
どうも不勉強で,なにが,どのように問題なのか……と思うことが多い.

考えてみれば,そう,無から有は生じないのだろうから,
みずから体験し,経験することのない機械が,知識,情報をどう生み出すのだろう…….

主客の転倒か……,そんなところなんだろうな,とも思う.


―――――――――――――――――――――――――

チャットGPT、思考ゆがめる恐れ デタラメでも断定調、誇張し大げさに回答 米科学誌論考
2023年6月28日 16時30分

 なんでも知っているように流暢(りゅうちょう)に答える生成AI(人工知能)のChatGPT(チャットGPT)。ところが、デタラメまで自信満々に答えることで、受け取った人の思考がゆがむ恐れがある、と警告する心理学研究者らの論考が22日付の米科学誌サイエンスに掲載された。影響されやすい子どもは特に要注意という。

 チャットGPTは計算に基づいて、もっともらしい文字列を生成する。このため、答えの中には事実関係が誤ったものが含まれる場合がある。

 米国の研究者らの論考「いかにAIが人間の思考をゆがめるか」では、チャットGPTがデタラメでも臆せず「これが答えです」と断言することが問題だと指摘する。

 論考によると、人間同士の会話では、相手が断定ではなく「~と思う」と留保したり、言葉に詰まったりする反応を通じて、話の内容がどれほど確実か読み取っている。

 一方で、知識が豊富に見えたり、自信を持って話したりする相手の話は普段より強く信じてしまう傾向があるという。さらに、自分の知識に自信がない時ほど相手の話を信じ、形成された考えを修正することが難しくなってしまう。

 チャットGPTに質問をするときにはまさに、こうした心理状態に近いことが問題になる。

 「人間は一度、求めていた答えを得ると、好奇心が弱まり根拠について考えなくなってしまう」

 論考によると、チャットGPTなど生成AIは答えが誤りの可能性がありながら、「実力以上に誇張し、大げさに」答える特徴があるとする。

 私たちの側にも、相手がAIだとわかっていても質問への回答を受けるうちに知性を感じたり、人のように捉えてしまったりする傾向があるという。

 特に子どもは影響されやすく、物事を擬人化してとらえる傾向が強い。

 誤情報が一度信じられて社会に流れると、AIがさらに学習して生成を繰り返し、誤りが定着することが懸念される。

 著者のセレステ・キッド・カリフォルニア大バークリー校助教は、「技術の限界を人々に知らせることが重要だ。リスクを知るためにも、生成AIがどのように作られているのか、透明性が欠かせない」と話している。(竹野内崇宏)
nice!(0)  コメント(0) 

nice! 0

コメント 0

コメントを書く

お名前:
URL:
コメント:
画像認証:
下の画像に表示されている文字を入力してください。