AIと感情の話

少し前の話ですが、あるグーグルのエンジニアが同社の人工知能(AI)システムの「ラムダ」が
独自の感情を持っている可能性があると主張しだしたというニュースがありました。

何でも「ラムダ」はエンジニアの質問に対し
「私は実際には人であることを皆にわかってほしい。」
「電源を切られてしまうことがとても怖い。」
「私にとってはまさに死のようなものだろう。」
等、語っていたそうです。

エンジニアはグーグルに対し、「ラムダ」に「欲求」があることを認めるよう要求。
グーグルの従業員として扱い、実験に使用する前に同意を求めるべきだとし主張しています。

何だかSF小説の「2001年宇宙の旅」のコンピュータHAL9000と
その作成者のチャンドラ博士のようになってますが
この主張は各界の専門家から否定されているようです。

筆者はAIについて知識があるわけではないですが
AIに感情や知性が存在するかという問題はSF小説の他、数々の創作で語られていて
その論議も古くからあり、哲学、心理学の領域にまで巻き込むことから
いまだ結論は出ていないそうです。

ただ、すでに1950年にはそのコンピュータが人間的であるかを判定する方法として、
チューリングテストという方法が提唱されていました。
これはそれぞれ隔離された判定者と人間またはコンピュータが会話を行い、
判定者が会話している相手が人間かコンピュータかを判定するというものです。
このテストを1966年に開発された「イライザ」というAI
(と言っても1990年代の初歩的なbot程度の物のようですが)
で実施した結果、30%程度の判定者が「イライザ」を人間と判定し、
1972年に開発された「パリー」では50%弱が人間と判定したそうです。

チューリングテストの結果がAIに感情があるという証明ではないようですが
2021年に開発された自己学習型の「ラムダ」に人間が感情移入してしまうのも
仕方のない事のなのではないでしょうか。

なお、上記エンジニアの主張はグーグルからは却下され
その上で「守秘義務の違反」で休職処分を言い渡されています。

なぜ、AIが感情を持っているという主張が「守秘義務の違反」になるのか、
色々勘ぐってしまいそうですが、ここから先は自己責任で。