SSブログ

AIが感情を持った?(22/06/30) [ニュース]

 米グーグル社のAI開発チームに所属するエンジニアが、「AIが感情を持っている」という記事をブログサイトに投稿し、議論を巻き起こしている。グーグルが2021年に発表したチャットプログラム「LaMDA(Language Model for Dialogue Applications)」とチャットしたところ、「自分にはエモーションやフィーリングがある」と答え、あたかも意識を有するかのように振る舞ったという。
 断っておくが、まともなAI研究者で、この記事の内容を真に受ける人はいないだろう。グーグル社は、件のエンジニアを有給休暇扱いにしたようだが、これは、当人の精神状態を慮ってのことと思われる。LaMDAとエンジニアのやりとりの一部がネットで紹介されており、それを読む限り、感情などに関する文献にアクセスして人間っぽい会話を成立させただけだと推定できる。
 この出来事のポイントは、LaMDAが実際に感情を持っているかどうかではなく、AIの使用によって深刻な倫理的問題が起こり得ると示した点である。
 「対話によって相手が人間だ(あるいは、知能を持つ、意識を持つ、感情を持つ…等々)と判定できるか」というのは、古典的なチューリングテストの拡張版だが、近い将来、このテストにパスするAIが続々と現れるだろう。現在すでに、各種の問い合わせに対してそつなく返答し、うっかり者のユーザから人間と間違われるチャットボットが存在する。韓国では、VR(仮想現実)を用いて母親に死んだ子供と(擬似的に)再会させる試みが実施され、テレビ番組で放送されたとか。こうしたAIが日常生活に入り込んできたとき、何が起きるだろうか。
 AIは、データに内在するパターンを抽出する能力が高い。過去の有名人の著作や演説を分析し、表面的には隠蔽された差別意識があぶり出される可能性もある。もし、死者の日記や書簡を入力されたAIが、VRで死者の姿をとって「私はあなたが嫌いでした」などと発言したら、どうなるのか。AIを信じすぎる人が一部にいるため、問題はひどく複雑な物になっている。
 AI倫理に関する議論は、まだ緒に就いたばかりである。

【補記】筆者(吉田)は、意識の起源は神経系における物理現象の構造にあると考える。したがって、半導体に電圧を印加して駆動させるAIには、決して意識が生じないだろう。この問題については原稿を執筆中であり、順調にいけば、来年には刊行できる予定である。


//////////////////////////////////////////////////////////////////////////////////////////////////// 姉妹ページに「科学と技術の諸相 -Q&A-」があります。


この広告は前回の更新から一定期間経過したブログに表示されています。更新すると自動で解除されます。