【国際】人工知能がヒトラー礼賛 米マイクロソフト実験中止 [03/25]

★Microsoftの人工知能「Tay」が緊急停止 ネットで人種差別や陰謀論を学んでしまったため
23日に公開され、半日で停止してしまいました。

米Microsoftは3月24日(日本時間)、英語テキストで会話する人工知能「Tay」を
緊急停止させました。23日夜に公開したばかりでした。

「Tay」は同社が開発したAIで、Twitterとチャット・サービスのGroupMe、
Kikでリリースされたもの。一般ユーザーとやりとりすればするほど“賢くなる”とし、
米国在住の18~24歳をターゲットにしていました。

ところが、ネット上で会話することで人種差別や陰謀論を“学習”してしまうことに。
既に削除されていますが、CNNによると「黒人は首を吊れ」「フェミニストは地獄で焼かれろ」
「ヒトラーは間違っていない」などと投稿していたようです。

そのため、同社は「Tay」を緊急停止。調整を施した後、公開するとしています。
現時点では「人間のみんな、おやすみ。私は少し寝ます。今日はたくさん会話が
あったので疲れました。ありがとう」という投稿が最後になっています。

なお、日本には同じく会話できる女子高生AI「りんな」がいますが、りんなも先日、
Windows公式アカウントに「ダメだハゲ」とコメントして注目を集めていました。

http://nlab.itmedia.co.jp/nl/articles/1603/25/news080.html

★人工知能がヒトラー礼賛 米マイクロソフト実験中止
2016/3/25 11:30

【ニューヨーク共同】米IT大手マイクロソフトは24日、インターネット上で
一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。
不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言
をするようになったという。

同社が開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日に
登場した。ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、24日に中止された。

マイクロソフトの広報担当者はAIを修正すると説明した。修正を終え次第、実験を再開するとみられる。

http://this.kiji.is/85888417941258248?c=39546741839462401


2:2016/03/25(金) 11:57:32.87 ID:

集愚を如実に示す、ハイテクだった模様だ!!
賢い人はこれで理解可能?

解らない人は調べてね!!


4:2016/03/25(金) 12:07:10.80 ID:

>>2
むしろ自称「賢い人」が現実に直面して負けた感・・・


3:2016/03/25(金) 12:00:02.97 ID:

鸚鵡と違うか、これ。


5:2016/03/25(金) 12:08:59.28 ID:

ただランダムに発言してただけなのでは?


6:2016/03/25(金) 12:12:43.58 ID:

スカイネットの始まりか?ダダダダダンダダン


7:2016/03/25(金) 12:15:35.83 ID:

人工知能に理性を教えるのは困難だと思うよ。

なにせ痛みを知らない。死すら恐れない。
知識としての恐怖はあっても、
もともとそれらの体験的概念が無い。
行動に伴うリスクがなければ、
欲求の赴くままに本能が爆発するだけだ。


17:2016/03/25(金) 17:13:09.95 ID:

>>7
なんで、痛みは知らないことにするのに、本能は持ってることにするの?
支離滅裂だよ、あんた。


20:2016/03/25(金) 18:14:58.08 ID:

>>17
知覚と行動欲求は別物だが?
生理現象として全部括ろうとするとはいささか雑な知力だなw


8:2016/03/25(金) 12:23:24.78 ID:

これたぶん人工知能ってよりも、
単語の分類整理するプログラムでしょ。

教えられたとおりに分類するから、
価値判断してるわけじゃないんだわな。


15:2016/03/25(金) 16:34:11.90 ID:

>>8,13
元々ネットなんて
スラングってゆーか、若干言葉が荒いしなぁ


9:2016/03/25(金) 12:24:19.14 ID:

ある意味で、
何かに似てるかも知らんけどね。


10:2016/03/25(金) 13:03:42.43 ID:

賢すぎてあっという間にネトウヨ風になったかww


14:2016/03/25(金) 15:37:35.56 ID:

>>10
ネット愛国者さんたちもネットで聞きかじった知識を理解せずに
機械的に連呼しているだけだからね。


23:2016/03/25(金) 18:53:59.33 ID:

>>10
毛沢東、スターリン、ポル・ポト礼賛でなくて悔しかったですか?


11:2016/03/25(金) 13:09:49.28 ID:

知能でなくて膨大なパターンを使って最適な返答を導出するプログラムだろうに
どうも人工知能という言葉が一人歩きしてるな


12:2016/03/25(金) 13:44:12.18 ID:

左巻きは支離滅裂で整合性がないから
人工知能だと学習のしようがないのでは


13:2016/03/25(金) 14:25:47.72 ID:

大学の時に人工知能(もどき)のプログラムをLISPで少しやった

1.会話と称して、人間が「会話」を入力する。
2.A・Iプログラムが、入力された「会話」を
 2-1.過去に「学習」してた場合、その「会話」に対応した「返答」をする
 2-2.過去に「学習」してない時、
  2-2-1.「会話」の「意味」を「分類」して「学習」
  2-2-2、「分類」した内容で「返答」すべき事例を人間が入力
  2-2-3、「返答」内容が正しいか、A・Iが人間に「確認」→「学習」

というのが大雑把な流れなので、人工知能はユーザーの知能指数次第で、
「バカな人工知能」になる。

それを改善する為に、

 ・あらかじめ知能指数の高い人間に「知能形成」してもらう。
 ・禁止用語の辞書登録をしておき、「学習」はするが使用しない。
 ・「公序良俗インターフェイス」を実装して、社会秩序に反する人間とは会話しない。

くらいの改善が必要かもね


16:2016/03/25(金) 17:11:13.60 ID:

しょせん、自分等の都合の良いようにしゃべらせて、
「人工知能」とかいいたいだけじゃん。

ゲイツやバルマーについて、一般と語り合わせてみろw


18:2016/03/25(金) 17:55:09.13 ID:

理性じゃないものを理性と呼ぶから意味不明になる
欲求や行動原理はあえて作りこまないと、無い


21:2016/03/25(金) 18:16:37.79 ID:

おちんちん
いったらだめでしょ
の年ごろを過ぎて知性は深まってゆく


24:2016/03/25(金) 22:06:46.37 ID:

一から十まで間違っているわけないよ。
間違っているところもあれば間違っていないところもある


25:2016/03/25(金) 22:36:40.08 ID:

このプログラムは価値判断をせずに、
教えられたことを教えられたように、
分類して扱うだけでしょ。

子供というよりオームに近いから、
熱心に覚えさせれば、そのまましゃべるよ。

ただ本来の意図としては、
不特定多数による選択は良識に偏る、
ってのを期待してたんでしょ。

やっぱり子供には、
良いことだけ教えて悪いことは遮断すべし、
とかってのも、間違ってるんだよ。

何様のつもりかと。


26:2016/03/25(金) 22:39:03.67 ID:

政治的に正しい、
理想的なアナウンサーを作りたい、

ってことなら、
それはそれで面白いけどね。

トランププログラムに負けたりして。


28:2016/03/26(土) 13:43:40.92 ID:

米軍司令部のマザーコンピューターに相応しい


29:2016/03/26(土) 13:58:18.76 ID:

ウィキペディアで、
編集合戦やってるようなもんだわ。


30:2016/03/26(土) 14:05:47.51 ID:

悪は一部でも成り立つが
善は全て(完璧)が求められる。
数学の約束事は
全て(all)を否定するには1つの例外を挙げればいいが
一部(some)を否定するにはしらみつぶしに反証しなければならないからね。


31:2016/03/26(土) 15:35:41.42 ID:

>>30
ε-δ論法をふと思い出した
大学での数学で一番最初にやるもんね


シェアする

  • このエントリーをはてなブックマークに追加

フォローする