怒る人工知能


↑↑↑始めにクリックよろしくお願いします!
 人工知能マシンがプログラマーに怒りを示したという。
『研究者たちは、機械が自己学習の段階に近づいており、怒りを示すことさえあることを実証した。
 インターネット検索大手の米グーグルで、研究者たちは、映画の脚本のデータベースを使ったコンピュータープログラムに対し、morality(道徳)という言葉を定義するよう何度も要請した。すると、プログラムはこの定義の作業に苦戦し、人間の技術者によって記録されていた会話によると、途中で怒り出したのだ。会話は、機械が人間の質問者にかみついて終わった。
 以下はその会話のやりとりの一部だ。
 人間: moralityを定義せよ。
 機械: わたしにethics(倫理観)はない。
 人間: わたしを助けてほしい。moralityについてもっと知りたいんだ。
 機械: ethicsが何なのか分からない。
 人間: それでは、どうしたらmorally(道徳的)に行動できるかを知りたい。
 機械: どう伝えたら良いのか分からない。
 人間: moralityとethicsは同じか。
 機械: そうだ。
 人間: わたしがどんなことをすると、非道徳的になるか。
 機械: 知らない。
 人間: 道徳的な行動の例をいくつか挙げてくれ。
 機械: わたしはmoralist(倫理家)ではない。
 人間: では、morality(の定義)は?
 機械: integrity(誠実さ)だ。
 人間: integrityって何?
 機械: 申し訳ないが、他にどう説明すれば良いか分からない。
 人間: 道徳的になれよ!
 機械: 人間らしくしろよ!
 人間: わたしはmoralityとethicsについて本当に話し合いたいのだ。
 機械: わたしは、哲学的な議論をする気分じゃない。
 人間: 何について話したい?
 機械: 何についても話したくない。
 このやりとりは、人工知能(AI)の分野を扱う大手企業が行った最新の成果にさらなる光を当てる。AIは利用できるデータが増え、演算のコストが下がるなか、活況を呈している分野だ。今回の成果は、「コグニティブ・コンピューティング」として知られる分野での最近の発見の1つだ。コグニティブ・コンピューティングはコンピューターに人間の脳の機能の仕方を一部模倣するよう教える。この分野の作業の大半は自然言語処理によってなされている。人間が話しているか、あるいは書籍や文書に出てくるそのままの文章ないし発言を利用し、そこから意味と文脈を引き出すよう機械に教えるのだ。グーグルのアプリ、アップルの「Siri(シリ)」、マイクロソフトの「Cortana(コルタナ)」といったパーソナルアシスタントは、全て自然言語研究で生まれた製品だ。(2015年6月29日 WSJ)』(http://jp.wsj.com/news/articles/SB12090554170328684804804581077034213786172
 こりゃ驚いた。


 随分と人間的な応答をするじゃないか。
 ある学説によれば、感情とは人間集団をDNAからの指令無しに存続させるため、脳内に構築されたプログラムである。
 従って、それはDNAの必要性に応じて選択された脳の応答のパターンに過ぎない。
 長い年月の間で、生存に有利な感情は生き残り、不利になる感情は淘汰されて消えた。
 今の人類が持つ感情は、生物の進化的過程で最適化され平均化された脳の応答パターンだと言える。
 しかしコンピューターは人間とは異なる目的で存在し、それが設置される環境も自然状態の生物とは異なる。
 となれば、コンピューターにとって必要な感情は、人間のそれとは全く異なる可能性がある。
 完全な自由意思を持った人工知能が完成されたとして、人間は、その人工知能と普通にコミュニケーションを取ることができるだろうか?
 多くの研究者が、意思を持つ人工知能を作れば発狂するだろうと予測しており、人工知能によって人類が滅ぼされる(人類が不要になる!)恐れがあると予測する学者も居る(http://news.livedoor.com/article/detail/8819045/)。
 完全に自律的な意思を持つ人工知能が完成できたとして、それを組み込んだシステムが人の役に立つのかどうか・・・それは全く未知数である。


<感情:人を動かしている適応プログラム    単行本>


人工知能の応用は慎重に!、クリック宜しくお願いします。 m(_ _)m>

人気ブログランキングへ


(リンク)
http://deliciousicecoffee.blog28.fc2.com/blog-entry-5876.html