「AI倫理」戦略ハンドブック
「暴言」を吐くAIチャットボット
「人種差別」をする犯罪予測AI
「男女差別」をする人材採用AI・与信審査AI……
AIの「暴走」をどう防ぐか?
「技術」「ブランド」「ガバナンス」「組織・人材」
4つのアプローチで「責任あるAI」を実現する
「責任あるAI」のベースにあるのは
「人間中心」のデザインであり、人間が意思決定の中心となることである。
「責任あるAI」実現のために守るべき規範が「AI倫理」である。
【主要目次】
Part1「責任あるAI」「AI倫理」とは何か?
●なぜ今「責任あるAI」が重要なのか?
・デジタルツインの波とAI
・労働生産性におけるAIの貢献
・意思決定におけるAIの役割
・加速するAIへの法規制
●求められる「AI倫理」とは?
・アシモフの「ロボット工学原則」と抜け穴
・AIのガイダンス制定の世界的な流れ
・「責任あるAI」と5つの行動原則「TRUST」
●AIの潜在的リスクに備える4つの観点からのアプローチ
・AIに混入する潜在的リスクとは?
・各産業分野におけるAI適用と考えうるリスク
・AIの導入・定着のために求められる施策とは?
Part2「責任あるAI」を実践する4つのアプローチ
●技術のリスクを防ぐアセスメントの方法
・AIの開発プロセスで忍び寄るリスク
・リスクを表面化させるアルゴリズム・アセスメント(AA)とは?
●ブランド価値を守り、高めるESGアプローチ
・ESGによるブランド価値の創出・向上
・AI開発においても無縁ではない「環境」意識
●ガバナンスにおける効果的な「火消し」の方法
・AIガバナンスのロードマップ
・日本企業で導入が広がるAIガバナンス
●組織・人材に「AI倫理」を根付かせる
・研修プログラムとコミュニケーション
・具体的事例を用いた演習
・リーダー企業になるためのチェックリスト