AI



1: 2019/02/03(日) 04:38:18.51 ID:l3DNq/ag9
https://jp.sputniknews.com/science/201902025878830/

「人間は間違いを選ぶが、AIの言うことは聞かない」 米軍の科学者らが結論
テック&サイエンス
2019年02月02日 14:14

人工知能(AI)の普及を阻んでいるものは、人間による自己過信である。このような結論に、米陸軍研究所(ARL)の科学者らが至った。これらの科学者は、戦闘行動の過程におけるAIの利用について研究を行っている。オンラインニュースサービス「EurekAlert」が伝えている。
スプートニク日本

米陸軍は自らの武力を近代化していく過程において、戦場で決定を下すうえで役立つ機械学習のアルゴリズムを開発しようとしている。科学者らは今回、ゲームを用いた実験を実施。この実験では、AIが各参加者に対し、ゲームのインターフェースとは別に出されるアドバイスを与え、最も適した戦略を常に提案する。この際、参加者らはアドバイスのスイッチを手動で入れたり切ったりでき、AIによる助言に従うことを参加者らに強制する者はいない。科学者らは、このAIの別バージョンもいくつか開発。そのうち一部はアドバイスを誤り、また一部は情報を手動で入力する必要があり、さらに一部は自らの判断の過程を詳細に述べるようになっている。

実験の結果は、AI利用の支持者らを不愉快な形で驚かせるものだった。実験に参加した米軍人らによって下された決定の3分の2が、機械によるアドバイスと一致せず、しかもこのことは、助言に含まれる誤りの数とは無関係だったのだ。ARLの科学者らは、コンピューターから得られる結論よりも自分自身の判断の方をはるかに信用する人が大多数に上るとの結論に至った。一方、自分がコンピューターよりも賢いと考えた軍人は、助言を利用したより謙虚な同僚と比べて、より悪い成績を実際には示していた。
米軍の専門家らが米カリフォルニア大学の研究者らと共同で実施した調査によって、コンピューターから得られる結論よりも自分自身の判断の方をはるかに信用する人が大多数に上るということが示された。

だが、AIの可能性に関する知識は明らかに不足しており、決定を下すうえでAIが有益となるのか、あるいは妨げとなるのかについては不明だと「EurekAlert」は伝えている。

軍の専門家らがカリフォルニア大学サンタバーバラ校の研究者らと共同で実施した調査によって、コンピューターから得られる結論よりも自分自身の判断の方をはるかに信用する人が大多数に上るとの結論が導き出された。

その結果、仮に非の打ちどころのないAIが開発されることが今後あるとしても、人間はいずれにせよ、AIによるアドバイスに耳を傾けることはないということになる。
(リンク先に続きあり)





中間おすすめ記事!






3: 2019/02/03(日) 04:44:28.68 ID:xW2oHMZu0
自意識高くて、AIが提示する答えを選択しない人には
あえて間違った答えを提示して正しい答えを選ぶように誘導すれば良い

41: 2019/02/03(日) 05:26:20.51 ID:MmF4k0Js0
>>3
そんな事したら、AIを一切参考にしなくなる。

117: 2019/02/03(日) 06:46:57.35 ID:J8RAWiMB0
>>3
20%当たる占い師と
70%当たる占い師の話みたいだな

489: 2019/02/03(日) 08:55:19.99 ID:ymx5q3F80
>>3
進化したAIは高い精度でそれやりそうだな

4: 2019/02/03(日) 04:47:11.24 ID:CM550cq80
「バカな人間は間違いを選ぶが、AIの言うことは聞かない」、だろ
優秀な人間は、たとえAIの言うことでも、合理性があれば
それに従うよ

5: 2019/02/03(日) 04:47:20.42 ID:gy5j4l6i0
人間が、自分の思い上がりを自覚するのは難しいからね。

6: 2019/02/03(日) 04:48:58.56 ID:4Quc3iTY0
その判断も予測してAIは解答をだす

7: 2019/02/03(日) 04:49:36.51 ID:K8/tv6XY0
これはゲームだけど実際の戦場だったら
自分の命運は自分で決めたいだろうな
AIは判断の参考になる情報提示だけ提示して
決断は人間にさせた方がいいんだろう

12: 2019/02/03(日) 04:54:20.35 ID:v3A6i5Aw0
>>7
この戦局を乗り切る為に、ここの部隊は囮になって死ねと言われても納得できないよな。

51: 2019/02/03(日) 05:33:43.44 ID:f+J0sT+E0
>>7
実際の戦場では、自分自身の勘だけが頼りだから、そら無理だよな。と思った。

21: 2019/02/03(日) 05:09:48.45 ID:FUOXawmn0
>人工知能(AI)の普及を阻んでいるものは、人間による自己過信である。

これが科学者の過信だというオチでした。

32: 2019/02/03(日) 05:17:30.56 ID:4ud2urm30
>>21
科学者の卵の頭の上に、常に 自己過信のボールを 乗せておけば 初めから 変な研究せずに済むのでは?
なんて合理的なんでしょう

33: 2019/02/03(日) 05:17:48.51 ID:+wt9M5ZR0
裁判なんか効率化できそうだ

47: 2019/02/03(日) 05:29:05.98 ID:VSut7srD0
まずネットライティング全部AIにしろ。自我いらない。ノイズがうるさい

49: 2019/02/03(日) 05:30:52.61 ID:i8njwyxX0
まあAIの出した結論が「人類抹殺」だったからなw

53: 2019/02/03(日) 05:35:58.26 ID:f+J0sT+E0
>>49
そらそうやろな
世界を破壊してるのは人間だけだし
人間抹殺したら、取り敢えず何万年かは平和だよな

180: 2019/02/03(日) 07:16:42.97 ID:CM6o9SKH0
>>53
その手のSFで、人類が生き残ってる地域が環境汚染でゲホゲホ、
AIが支配してる地域が緑に覆われて空気が清浄、なんて設定がないもんかね

188: 2019/02/03(日) 07:19:51.30 ID:afvOZOx40
>>180
風の谷のナウシカ(漫画版)

60: 2019/02/03(日) 05:41:55.89 ID:qoQtNOIw0
自分で決めたのなら間違っていてもいいじゃない

50: 2019/02/03(日) 05:31:53.84 ID:4ud2urm30
もし ロボ化するとしても R2D2とか、横のGOLDフェンシングマンみたいな あぁゆう感じの Androidなら 楽しいのになぁ~
♪(´▽`)

52: 2019/02/03(日) 05:35:40.90 ID:33SZ4UCm0
AIは「なぜそうなのか」を人間にわかるように説明できない
って将棋ソフト見て思いました

543: 2019/02/03(日) 09:10:03.85 ID:fwPZRMMv0
>>52
理由を説明するAIを開発すればいいんじゃね?w

61: 2019/02/03(日) 05:43:31.55 ID:CIix7PR70
しかしまあAIが人間の心理を計算して
その選択に仕向けるようにできるようになったら
かなり怖い話だなw

71: 2019/02/03(日) 05:58:07.95 ID:N2RsMJP70
戦場だと頼ったAIがハッキングされてるかももか不安になるから自己の判断に頼りたいのもわかる気がする

73: 2019/02/03(日) 06:00:02.77 ID:qTBMJUHD0
数学マンガであったな  AIは絶対に間違いを認めないバカ
仕方ないので再インストールして正常判断させたというオチ

74: 2019/02/03(日) 06:00:17.20 ID:6FnEgdaq0
AIに従った方が成績良かったなら結果出てるじゃん
まだ信頼性が広まっていないだけで、広まったら普通に従う人の方が多くなると思うわ
AI政治家が現れるのも遠くない未来だろうな

104: 2019/02/03(日) 06:40:31.42 ID:BNdJFH2K0
自分に都合の良いことは採用するけど逆なら採用しない。
キリストやブッタが言っても聞かないのだから。

101: 2019/02/03(日) 06:38:12.58 ID:+VKsze650
そりゃあ認めちゃったら自分の存在を否定するようなもんだからな

111: 2019/02/03(日) 06:45:53.68 ID:tPx+UaPm0
AIが策士孔明の声なら疑問に思いながら従うかもしれん (´・ω・`)

119: 2019/02/03(日) 06:47:13.61 ID:b1ezOSD10
俺とカーナビの仁義なき戦い

9: 2019/02/03(日) 04:52:57.63 ID:2/DHK5ph0
AIは必ず正解を導き出すのかね?

434: 2019/02/03(日) 08:33:47.70 ID:6fzGy7/l0
>>9
どうやら実験結果は正しいようですね。


引用元: http://asahi.5ch.net/test/read.cgi/newsplus/1549136298/




おすすめ記事!