もっと詳しく

アイデアを得て、チームを作り、「実用最小限の製品(MVP)」を完成させてユーザーに届ける。これは誰もが知っているスタートアップの事業の進め方である。

しかし、人工知能(AI)や機械学習(ML)がハイテク製品のいたるところに導入されるようになり、意思決定プロセスにおいてAIが人間を補強、または代替することの倫理的意味を市場がますます意識するようになった現在、スタートアップはMVPモデルの再考を迫られている。

MVPモデルとは、ターゲット市場から重要なフィードバックを収集し、製品の発売に向けて必要な最小限の開発に反映させるというもので、今日の顧客主導型ビジネスを推進する強力なフィードバックループを生み出している。過去20年間で大きな成功をもたらした、スマートでアジャイルなこのモデルは、何千社ものスタートアップを成功に導き、その中には10億ドル規模に成長した企業もある。

しかし、大多数のために機能する高性能な製品やソリューションを構築するだけでは、もはや十分ではない。有色人種に偏見を持つ顔認識技術から、女性を差別する信用貸付アルゴリズムまで、ここ数年間でAIやMLを搭載した複数の製品が、その開発とマーケティングに何百万ドル(何億円)も注ぎ込まれた後に倫理的ジレンマが原因で消滅している。アイデアを市場に出すチャンスが一度しかない世界でこのリスクはあまりにも大きく、安定した企業であっても致命的なものになりかねない。

かといってリーンなビジネスモデルを捨て、よりリスク回避的な代替案を選ばなければならない訳ではない。リーンモデルの俊敏性を犠牲にすることなく、スタートアップのメンタリティに倫理性を導入できる中間領域があるのだが、そのためにはスタートアップの最初のゴールとも言える初期段階の概念実証から始めると良い。

そして企業はMVPを開発する代わりに、AI / MLシステムの開発、展開、使用時に、倫理的、道徳的、法的、文化的、持続可能、社会経済的に考慮するアプローチであるRAI(責任ある人工知能)に基づいた倫理的実行可能製品(EVP)を開発して展開すべきなのである。

これはスタートアップにとってだけでなく、AI / ML製品を構築している大手テクノロジー企業にとっても優れた常套手段である。

ここでは、特に製品に多くのAI/ML技術を取り入れているスタートアップがEVPを展開する際に利用できる、3つのステップをご紹介したい。

率先して行動する倫理担当者を見つける

スタートアップには、最高戦略責任者、最高投資責任者、さらには最高ファン責任者などが存在するが、最高倫理責任者はそれと同じくらい、またはそれ以上に重要な存在だ。さまざまなステークホルダーと連携し、自社、市場、一般の人々が設定している道徳的基準に適合する製品を開発しているかどうかを確認するのがこの人物である。

創業者、経営幹部、投資家、取締役会と開発チームとの間の連絡役として、全員が思慮深く、リスクを回避しながら、正しく倫理的な質問をするよう、とりはからうのもまたこの人物の仕事である。

機械は過去のデータに基づいて学習する。現在のビジネスプロセスにシステム的な偏りが存在する場合(人種や性別による不平等な融資など)、AIはそれを拾い上げ、今後も同じように行動するだろう。後に製品が市場の倫理基準を満たさないことが判明した場合、データを削除して新しいデータを見つけるだけでは解決しない。

これらのアルゴリズムはすでに訓練されているのである。40歳の男性が、両親や兄妹から受けてきた影響を元に戻せないのと同様に、AIが受けた影響も消すことはできない。良くも悪くも結果から逃れることはできないのだ。最高倫理責任者はAI搭載製品にそのバイアスが染み込む前に、組織全体に内在するそのバイアスを嗅ぎ分ける必要がある。

開発プロセス全体へ倫理観を統合する

責任あるAIは一度きりのものではなく、組織のAIとの関わり合いにおけるリスクとコントロールに焦点を当てた、エンド・ツー・エンドのガバナンスフレームワークである。つまり倫理とは、戦略や計画から始まり、開発、展開、運用に至るまで、開発プロセス全体を通じて統合されるべきものなのだ。

スコーピングの際、開発チームは最高倫理責任者と協力して、文化的、地理的に正当な行動原則を表す倫理的なAI原則を常に意識するべきである。特定の利用分野において道徳的な決定やジレンマに直面したとき、これらの原則はAIソリューションがどのように振る舞うべきかを示唆し、アイデアを与えてくれるだろう。

何より、リスクと被害に対する評価を実施し、身体的、精神的、経済的に誰も被害に遭っていないことを確かめる必要がある。持続可能性にも目を向け、AIソリューションが環境に与える可能性のある害を評価するべきだ。

開発段階では、AIの利用が企業の価値観と一致しているか、モデルが異なる人々を公平に扱っているか、人々のプライバシーの権利を尊重しているかなどを常に問い続ける必要がある。また、自社のAI技術が安全、安心、堅牢であるかどうか、そして説明責任と品質を確保するための運用モデルがどれだけ効果的であるかも検討する必要がある。

機械学習モデルの要素として重要なのが、モデルの学習に使用するデータである。MVPや初期にモデルがどう証明されるかだけでなく、モデルの最終的な文脈や地理的な到達範囲についても配慮しなければならない。こうすることで、将来的なデータの偏りを避け、適切なデータセットを選択することができるようになる。

継続的なAIガバナンスと規制遵守を忘れずに

社会的影響を考えると、EUや米国などの立法機関がAI/MLの利用を規制する消費者保護法を成立させるのは時間の問題だろう。一度法律が成立すれば、世界中の他の地域や市場にも広がる可能性は高い。

これには前例がある。EUで一般データ保護規則(GDPR)が成立したことをきっかけに、個人情報収集の同意を証明することを企業に求める消費者保護政策が世界各地で相次いだ。そして今、政界、財界を問わずAIに関する倫理的なガイドラインを求める声が上がっており、またここでも2021年にAIの法的枠組みに関する提案をEUが発表し、先陣を切っている。

AI/MLを搭載した製品やサービスを展開するスタートアップは、継続的なガバナンスと規制の遵守を実証する準備を整える必要がある。後から規制が課される前に、今からこれらのプロセスを構築しておくよう注意したい。製品を構築する前に、提案されている法律、ガイダンス文書、その他の関連ガイドラインを確認しておくというのは、EVPには欠かせないステップである。

さらに、ローンチ前に規制や政策の状況を再確認しておくと良いだろう。現在世界的に行われている活発な審議に精通している人物に取締役会や諮問委員会に参加してもらうことができれば、今後何が起こりそうかを把握するのに役立つだろう。規制はいつか必ず執行されるため、準備しておくに越したことはない。

AI/MLが人類に莫大な利益をもたらすというのは間違いない事実である。手作業を自動化し、ビジネスプロセスを合理化し、顧客体験を向上させる能力はあまりにも大きく、これを見過ごすわけにはいかない。しかしスタートアップは、AI/MLが顧客、市場、社会全体に与える影響を強く認識しておく必要がある。

スタートアップには通常、成功するためのチャンスが一度しかないため、市場に出てから倫理的な懸念が発覚したために、せっかくの高性能な製品が台無しになってしまうようではあまりにももったいない。スタートアップは初期段階から倫理を開発プロセスに組み込み、RAIに基づくEVPを展開し、発売後もAIガバナンスを確保し続ける必要がある。

ビジネスの未来とも言えるAIだが、イノベーションには思いやりや人間的要素が必要不可欠であるということを、我々は決して忘れてはならないのである。

編集部注:執筆者のAnand Rao(アナンド・ラオ)氏はPwCのAIグローバル責任者。

画像クレジット:I Like That One / Getty Images

原文へ

(文:Anand Rao、翻訳:Dragonfly)