記事
AIの透明性とは?透明性の確保と利用のバランス
AIに透明性を確保することで顧客からの信頼を築き、公平性を確保し、法規制を遵守することができます。本気記事では、AIの透明性を確保するための課題やベストプラクティスを解説します。
著者: Hannah Wren, スタッフ執筆
更新日: 2024年10月14日
AIの透明性とは?
AIの透明性とは、人工知能システムがどのように意思決定を行うのか、なぜ具体的な結果を出せるのか、どのようなデータを使用しているのかを理解することを指します。簡単に言えば、AIの透明性とはAIの内部構造を覗ける窓を提供するようなものであり、人間がこれらのシステムがどのように機能するかを理解し、信頼するのを助けるものです。
日常生活において、私たちは思っている以上にAI(人工知能)を利用しています。中には、SiriやAlexaと毎日会話している人もいることでしょう。AIの影響について知識を深めていく中で、企業はAIの透明性を常に念頭に置いておく必要があります。特にCX(カスタマーエクスペリエンス、顧客体験)に関してはなおさらです。本記事では、Zendeskが、約2,500人の一般消費者と約4,500人のCXリーダーを対象に行ったアンケート調査「CXトレンドレポート2024年版」の統計データにもとづき、AIの透明性の意義や要件、規制、メリット、課題、確保に向けたベストプラクティスを解説します。
目次
- AIの透明性が重要な理由
- AIの透明性を確保するための要件
- AIの透明性の段階
- AIの透明性における規制と基準
- AIの透明性がもたらすメリット
- AIにおける透明性の課題とその対処法
- AIの透明性に関するベストプラクティス
- 透明性の高いAIを実践している企業の例
- よくある質問と回答
- AIにおける透明性の未来
AIの透明性が重要な理由
AIの透明性が重要な理由を簡単に述べると、「AIを活用することで起きる物事の理由を明確に説明するため」ということになります。AIの決定や行動の背後にある理由を理解できれば、導き出された決定や行動が公正で信頼できるものだと保証できます。ZendeskのCXトレンドレポート2024年版によると、CXリーダーの65%がAIを戦略的に必要だと考えており、AIの透明性は考慮すべき重要な要素になっているといます。
AIモデルとその意思決定の原動力となるデータについて透明性を確保することは、顧客との信頼関係を構築し維持するための決定的な要素となるでしょう。Zendesk CXトレンドレポート2024年版
AIの透明性には、倫理的や法的、社会的な意味合いと、透明性によってユーザーや利害関係者との信頼をどのように醸成するかを理解することが含まれます。ZendeskのCXトレンドレポート2024年版によると、企業の75%が透明性の欠如が将来的に顧客離れの増加につながる可能性があると考えています。
AI as a service(AIaaS)プロバイダーによってAIが企業にとってより身近なものになったため、AIの透明性を確保することがこれまで以上に重要になっています。
AIの倫理的な課題とは、AIが確実に公正で責任ある行動をとるようにすることです。AIモデルにバイアスがあると、意図せず特定の層を差別する可能性があります。例えば、職場でAIを使うことは採用プロセスに役立ちますが、性別や人種などの無関係な要因に基づいて、他のグループよりも特定のグループを気付かぬうちに優遇する可能性があります。透明性の高いAIによってバイアスを減らし、ビジネス場面での利用において公正な結果を維持することができます。
AIの法的な課題とは、AIが確実に政府によって定められた規則や法律に従うようにすることです。例えば、AIを搭載したシステムが適切な同意なしに個人情報を収集した場合、個人情報保護法に抵触する可能性があります。AIの透明性に重きを置いた法律を制定し、AIに遵守させることで、法的な要件を満たしながらAIを利用することができます。
AIの社会的な課題とは、AIが個人や社会全体の日常生活にどのような影響を与えるかを理解することです。例えば、AIを医療に活用することで、医師が正確な診断を迅速に行ったり、個人に合った治療法を提案したりすることができます。しかし、AIの利用価格によっては権利の公平性に差が生じるのではないかという問題が発生する可能性があります。
AIの透明性を確保するための要件
透明性の高いAIを実現するには、「説明可能性」、「解釈可能性」、「説明責任」という3つの重要な要件があります。これら3つの要件がどのようなもので、AIのトレーニングデータ、アルゴリズム、意思決定にどのように関係するのか見てみましょう。
説明可能性
XAI(説明可能なAI)とは、AIがその決定や行動に至った理由を分かりやすく説明する能力を指します。
例えば、顧客がチャットボットにお勧めの製品を尋ねた場合、説明可能なAIは次のような詳細な情報を提供することができます。
「お客様の購買履歴や興味・嗜好から、この製品を気に入っていただけると思います」
「似ている製品に対するお客様の好意的なレビューに基づいて、この製品をお勧めしています」
明確な説明をすることで、顧客はAIの意思決定プロセスを理解することができます。これで消費者はAIの回答の背景にあるものを理解できるため、顧客の信頼を築くことができます。このような概念は、「責任あるAI」、「信頼できるAI」、あるいは「グラスボックスシステム」とも呼ばれます。
その一方で、ブラックボックスシステムも存在します。このようなAIモデルは複雑で、どのような経緯で結果に至ったかを明確に説明することなくその結果を提供します。このように透明性が欠如してAIが結論までのプロセスを説明できなければ、消費者は提供される情報を信頼することができません。
解釈可能性
AIにおける解釈可能性は、AIモデルがどのように動作し、どのように振る舞うかを人間が理解することに焦点を当てています。XAIが結果について明確な説明を提供することに重点を置いているのに対し、解釈可能性はシステムの予測や決定を理解するための内部プロセス(入力と出力の関係など)に重点を置いています。
上記と同様に顧客がチャットボットに製品の提案を求めたとしたら、 解釈可能なAIシステムなら、決定木モデルを使ってお勧めの製品を決定していると説明できる可能性があります。
説明責任
AIにおける説明責任とは、AIがその行動や決定に責任を負うことを保証することです。ML(機械学習)により、AIは失敗から学び、時間とともに改善しなければなりません。一方企業は、今後同様の失敗を防ぐために適切な是正措置をとらなければなりません。
例えば、AIチャットボットが在庫切れの商品を誤って勧めたとします。顧客はその製品の在庫があると信じて購入しようとしましたが、後になってその商品が一時的に在庫切れであることを知らされ、不満に思いました。その後、企業は謝罪し、ボットが顧客に情報を伝える前に重要な製品関連情報を確認、検証できるように、人間の目で管理できるようにしました。
カスタマーサービス用のAIにおける説明責任について述べたこの例では、会社がどのように間違いの責任を取り、それを修正するための手順を説明し、予防策を実施したかを示しています。また、企業はAIを定期的に監査し、バイアスが見つかれば排除し、公正で差別のない回答を保証し、AIの透明性を促進する必要があります。
AIの透明性の段階
AIの透明性には3つの段階があります。まずAI内部から始まり、次にユーザーへ、そして最後にグローバルな影響へと移行します。段階は以下の通りです。
アルゴリズムの透明性
相互作用の透明性
社会的な透明性
アルゴリズムの透明性は、AIシステムが使用するロジック、プロセス、アルゴリズムの説明に重点を置いており、機械学習モデル、決定木(フローチャートのようなモデル)、ニューラルネットワーク(計算モデル)など、AIアルゴリズムの種類についてのインサイトを提供します。また、システムがどのようにデータを処理し、どのように意思決定に至るか、そして意思決定に影響を与える要因についても詳しく説明できます。この段階の透明性があることで、ユーザーや利害関係者にとってAIモデルの内部構造がより理解しやすくなります。
相互作用の透明性とは、ユーザーとAI間のコミュニケーションや相互作用に関するものです。これにはやり取りの透明性を高め、理解することが含まれます。企業は、AIシステムがどのように動作し、ユーザーがAIとの相互作用によってどんなメリットを得られるかを伝えられる接点を作ることで、相互作用の透明性を実現することができます。
社会的な透明性は技術的な側面にとどまらず、AIが社会全体に与えるより広範な影響に焦点を当てたものです。この段階の透明性は、潜在的なバイアス、公平性、プライバシーの懸念など、AI導入の倫理的、社会的な課題が対象になります。
AIの透明性における規制と基準
AIは比較的新しいテクノロジーであるため、AIにおける透明性の規制や基準は倫理的、法的、社会的な懸念に対応するために急速に進化しています。ここでは、AIを管理するための主要な規制と基準をいくつかご紹介します。
- GDPR(一般データ保護規則): EU(欧州連合)によって制定されたもので、データ保護、プライバシー、同意、透明性に関する規定が含まれます。
- OECD(経済協力開発機構)のAI原則: 価値観に基づく一連の原則で、信頼でき、透明性があり、説明可能で、説明責任を果たせる、安全なAIの利用を促進するものです。
- GAO (米国政府説明責任局)のAI説明責任フレームワーク: AIにおける責任と義務を概説したもので、AIが生成した結果に対する説明責任と透明性を確保するためのフレームワークです。
- EU人工知能法: EUにおけるの開発を規制することを目的とした、欧州委員会により提案された法律です。
これらの規制によって、地域的にも世界的にもAIの使用と開発を標準化が取り組まれています。透明性、倫理的配慮、説明責任を重要視することで、AIをより明確で信頼できる存在へと着実に進化させることができます。
AIの透明性がもたらすメリット
透明性の高いAIは、倫理的、経営的、社会的な領域にわたって、企業に多くの利益をもたらします。ここでは、AIに透明性があることで得られるメリットをご紹介します。
- ユーザー、顧客、利害関係者との信頼関係を構築: ユーザー、顧客、利害関係者は、AIやAIを搭載したシステムがどのように機能するかを理解し、かつそれらが公正かつ倫理的に運営されていると信頼できるようになれば、これらのシステムを利用する企業に関与する可能性が高くなります。
- 説明責任と責任あるAIの使用を促進: AIのプロセスを明確に文書化し説明することで、責任あるAIの使用が容易になり、エラーやバイアスが発生した場合に企業が責任を負うことになります。
- データの中に存在するバイアスと差別を検出・緩和: データソースやアルゴリズムを可視化することで、開発者やデータサイエンティストはバイアスや差別的なパターンを特定することができます。これにより企業はバイアスをなくし、公平で公正な結果を確保するための積極的な措置を講じることができます。
- AIのパフォーマンスが向上: モデルがどのように動作するかを明確に理解している開発者は、アルゴリズムやプロセスをより効果的に調整できます。ユーザーから収集したフィードバックとパフォーマンスデータから得られたインサイトにより、継続的な改善が可能になり、時間の経過とともにAIの精度と効率を高めることができます。
- 倫理的な問題と懸念事項への対応: AIの透明性を確保することで、利害関係者はAIを利用した意思決定や行動の倫理的意味合いを評価し、AIが倫理的ガイドラインの範囲内で運用されていることを確認できます。
AIの透明性を確保できると、AIの信頼性を高められるだけでなく、責任ある倫理的な利用にも貢献することができます。
AIにおける透明性の課題とその対処法
AIの透明性によって多くのメリットがもたらされると同時に、課題もいくつか存在します。しかし、ここでの課題を効果的に管理し、最小限に抑えることができます。
データの保護
透明性を維持しながら顧客データのプライバシーを確保することで、バランスを取ることができます。透明性を確保するためには、AIで使用されるデータの詳細の共有が必要な場合があり、データプライバシーに関する懸念が生じます。ZendeskのCXトレンドレポート2024年版によると、CXリーダーの83%が、データ保護とセキュリティがカスタマーサービス戦略における最優先事項であると回答しています。
課題への対処方法: チーム内に少なくとも1名、データ保護の責任者を任命しましょう。729 SolutionsでZendeskのリードアーキテクトを務めるBrandon Tidd氏は、「CXリーダーは、入口と出口について熟慮し、悪質な行為者がシステムを侵害しようとする可能性のあるシナリオを積極的に修正する必要があります」と述べています。
複雑なAIモデルの説明
AIモデルの中には、簡単な言葉で説明するのが難しいものがあります。特にディープラーニングやニューラルネットワークを利用したものであればなおさらです。このため、ユーザーは複雑なAIモデルの意思決定やインテリジェントオートメーションのプロセスを把握することが難しくなります。
課題への対処方法: 複雑なAIモデルがどのように機能するかを説明するために、ビジュアルや簡略化した図を作成しましょう。また、AIを搭載したシステムを選ぶときは、専門的ではないわかりやすい説明を提供する、ユーザーフレンドリーなインターフェイスを備えたものを選択しましょう。
進化するAIモデルによる透明性の維持
AIのモデルが時間とともに変化し適応していくにつれ、透明性を維持することはますます難しくなっていきます。AIに更新や修正を加えたり、新しいデータセットで再トレーニングを行ったりすると、その意思決定プロセスが変化する可能性があり、透明性を一貫して維持することが難しくなる可能性があります。
課題への対処方法: アルゴリズムやデータなど、AIのエコシステムに加えられた変更を明らかにできる、包括的な文書化プロセスを確立しましょう。また、AIにおけるこれらの変更を記した定期的かつ最新の透明性報告書を提供し、利害関係者が更新とその意味合いについて知ることができるようにしましょう。
AIの透明性に関するベストプラクティス
AIの透明性に関するベストプラクティスを取り入れることで、AIの開発者、企業、ユーザー間の説明責任と信頼を促進することができます。データプラクティス、バイアス対策、AIモデルで使用されるデータおよび使用されないデータについて明確かつオープンなコミュニケーションを行うことで、ユーザーはAIをより安心して使用することができます。ここでは、透明性の高いAIを実現するためのベストプラクティスをご紹介します。
データの収集、保存、使用方法について顧客の許可を得る
AIによるデータの収集、保存、利用について、顧客に透明性のある分かりやすい説明を行いましょう。また、収集するデータの種類、収集の目的、保存方法、AIシステムにおけるデータの使用方法などを詳細に述べたプライバシーポリシーを明確に説明しましょう。顧客のプライバシーの保護は、AIのためにデータを収集または使用する前に、ユーザーから明確な同意を得るところから始まります。
固有のバイアスをどのように防止しているのか詳しく説明する
AI内のバイアスを特定し、排除するために定期的な評価を実施しましょう。AIモデルにおけるバイアスを防止し、対処するために使用されている方法を伝えることで、公平性を高め、差別を防止するためにとられている措置をユーザーが理解できるようになります。また、顧客への透明性とバイアス防止へのコミットメントを示すために、バイアスの検知、評価、処理の記録を保持しましょう。
AIモデルに含まれるデータと除外されるデータを説明する
AIモデルに含まれるデータと含まれないデータの種類を明確に定義し、伝えてください。AIのトレーニングに使用するデータを選択した理由を説明し、ユーザーがモデルの限界と能力を理解できるようにしましょう。また、バイアスを引き起こしたり、プライバシーの権利を侵害したりする可能性のある、センシティブなデータや差別的なデータを含めないようにしましょう。
透明性の高いAIを実践している企業の例
ここでは、透明性の高いAIイニシアチブを実行している企業の例をいくつかご紹介します。AIの透明性を維持し、責任あるAIの実践を推進する取り組みは、顧客との信頼関係を構築するのに継続的に役立っています。
Zendesk
Zendeskでは、生成AIやAIチャットボットなど、ユーザーがAIや機械学習ツールを使ってカスタマーサポートを強化できるカスタマーサービスプラットフォームを開発・提供しています。Zendesk AIは説明可能性を重視しており、AIを搭載したツールがどのように機能し、AIの意思決定がどのように行われるかについての情報を提供しています。
Zendeskはまた、AIとカスタマーサポートツールのインテグレーション、CXにおけるAIの倫理、および顧客とのインタラクションへの影響についてユーザーが理解できるよう、教育リソースとドキュメントも提供しています。
Lush
化粧品小売業Lushは、事業運営における倫理的なAI利用について、はっきりと説明しています。同社は、顧客のプライバシーや自主性を侵害する可能性のあるソーシャルスコアリングシステムやテクノロジーを使用しないことで、AIの透明性を確保しています。またコミュニケーションおよびSNSチャネルを通じて公開討論に参加し、倫理的なAIの実践に対する姿勢を共有しています。
OpenAI
生成AIアプリケーションのChatGPTやDall-Eで有名なOpenAIは、AIの開発や飛躍的進歩に関するインサイトを提供する研究論文や調査結果を定期的に発表しています。
OpenAIは、包括的な文書によって同社の目標、倫理指針、AIの潜在的な社会的影響について透明性を保っています。そして、より広範なAIコミュニティとの連携や関わりを奨励しており、AI開発に関する透明性と知識の共有を促進しています。
CXリーダーの65%はAIを一時的に流行しているものではなく、戦略的に必要で現実的な存在と捉えています。Zendesk CXトレンドレポート2024年版
よくある質問と回答
AIにおける透明性の未来
人工知能が進化し性能が向上し続けるにつれて、AIの透明性も高まっていくでしょう。AIの透明性が将来どのようなものになるかを正確に予測することは難しいかもしれませんが、一部のトレンドと予想によって見通しを立てられるかもしれません。ユーザーがAIの意思決定プロセスを理解できるよう、複雑なAIモデルを説明するのに役立つより良いツールが開発されると予想されており、実現すれば信頼性と使い勝手の向上に役立ちます。
また、AIの規制や倫理的配慮もより重視されるでしょう。これで、企業はAIの透明性に関する標準的な慣行を導入しやすくなり、バイアス、公平性、プライバシーに関する懸念に対処できるようになり、より責任あるAIシステムを実現できるでしょう。