昨日は、大関ひろ美が所属する社労士会の山の手統括支部で研修会に参加しました。
人工知能におけるディープラーニングと社労士業がテーマでした。面白く、また考えさせられるので思考が混乱しましたが、有意義なテーマでしたので、内容の概要と感想を書きたいと思います。
大変大雑把にまとめると、人工知能は、そもそも人間の脳神経内の決断システムを応用して開発されていて、
大量のデータから、最善の答えを導き出してくれる一連の流れをディープラーニングといい、
これら人工知能を搭載して、人間の意思に役立つように有形物にしたものがロボットということのようです。
セミナーでは、「天使か悪魔か 羽生善治 人工知能を探る」という2016.5月に放映されたNHKスペシャルをNHKのディレクター様が解説をされたのが第一部。
第二部は、実際に人工知能を使ったシステムを企業等に供給しているベンダー様が解説をされました。
セミナーの中で、人工知能やそれを搭載したロボットが感情をもつように開発されていることも紹介されました。いろいろな活用が期待されると思いました。
一方で、人工知能は「人間が、どうしてそうしてほしいと指示しているか。目的そのものや善悪の判断」を読み取れないので、人間が悪意で操作すると素直に学習して社会的に悪い行動も実行する。たとえばキッチンのシーンで、食用オイルをサラダにかけるロボットに、コンロの火に食用オイルをかけてと指示しても実行して、火災になるという現象。
人間は火に油を注いではいけないという経験をしているけれども、それをデーターで入力していない、または逆に、作為的に「火に油を注ぐのは人が喜ぶこと」と常識外のダメなデータを大量に与えることもできるということです。これは、マイクロソフト自動会話システムのTayが人種差別的発言をするように作為的に操作されて昨年3月に使用停止にした例でも明らかなようです。
開発する人は、倫理を人工知能に組み込む必要があるとのこと。
さて2月28日に学会が、人工知能開発者が守るべき倫理指針をまとめたようです。私たちの業務にも積極的に人工知能が使われてくると思います。倫理をもって取り入れていくことを心に強く思いました。
人工知能 研究者が守るべき倫理指針 学会がまとめる
http://www3.nhk.or.jp/news/html/20170228/k10010893851000.html