2018年11月24日土曜日

深層学習する人工知能に倫理規定が必要?

 AI器機は賢い人工知能、集積された膨大なデータ分析ではとうてい叶わないが、倫理的自己規制を問うには尚早の感あり。それを必要とするメーカーやユーザーと異なり、物自体に考える力無く未完成、だってそうでしょう?「実存」(その都度の不安な現存在の仕様)は理解できない。判断力も定量的分野に限られる。定性的判断ができないから、ジレンマに陥り暴走し始める。自動運転を過度に信用すると、思わぬ事故に出くわして対処できずに狼狽する。でしょう?諸君は、普段から自分で考えるよう務めること、漠然と考えるだけで済ませない。パターン認識とは違う考え方、「別様に考える」工夫が必要となる。AIの示す尤もらしさは未だ玩具のレベル、就活に於いて進路を舵取る力量(判断力)までAI任せにしてはいけないよ。
*お勧めの本:大島淑子『禅 ー別様に考える』。但しドイツ語なので、読みたい人は研究会においでください。わかりやすく実存理解の手解きいたします。
12月9日(水曜日)更新