2019年7月19日
AIの可能性と危険性
AIの倫理と未来に関するHPEのEng Lim Goh博士との質疑応答
Hewlett Packard EnterpriseのハイパフォーマンスコンピューティングおよびAI担当バイスプレジデント兼最高技術責任者であるEng Lim Goh博士は、自身のキャリアの中でマシンの能力と可能性やマシンに任せるべきではないことについて検討を重ねてきました。そしてAIの重要性が増す中、同氏は日常的にやり取りのあるお客様やパートナーから今後の展望を示して欲しいと求められてきました。
ほとんどの科学者と同じように、同氏は未来を占うようなことはしたくないと考えていますが、以前からコンピューターグラフィックス、機械学習、分析、データに精通していることを考えると、このテーマに対するさまざまな考え方についてお話しいただくのにうってつけの人材です。この質疑応答では、AIの導入が進むことでもたらされるメリットと懸念について同氏が概説します。
AIが人間の仕事を奪うという懸念についてどのようにお考えですか。
短期的には、ほとんどの場合にマシンが人間に取って代わるのではなく、人間の能力を増大させたり高めたりする存在になるのではないかと思いますが、人、経済、学校などはこうした状況に迅速に適応する必要があります。
もちろん仕事が失われることも予想されますが、新しい種類の仕事も生み出されるでしょう。ただし私たちは、スキルを磨いて専門性を高めなければなりません。
私は最近、数万台の産業用ロボットを保有する世界最大規模のメーカーであるお客様とコデザインセッションを行ったときにこのような状況を目の当たりにしました。同社のロボットは現在、主に事前定義済みのルールに従って、人間が介入しなくても問題なく稼働していますが、さまざまな例に見られるような機械学習が登場する中で、こうした機能を高められる可能性があるロボットが今後さらに人間に取って代わることがあるかどうかをお客様に尋ねたところ、その答えは正反対でした。同社は、このような未来のロボットを数多く稼働させてそれぞれを熟練した職人に割り当て、その職人から学んだ技をロボットに真似させる計画を立てており、現在の量産品だけでなく、顧客が求めているよりカスタマイズされた製品を手頃な価格で提供することで市場を変えようとしています。
もう1つ話題になることが多いトピックとして、自動運転車が挙げられます。自動車技術者協会(SAE)によると、自動化には5つのレベルがあり、現時点で最先端の量産車は、人間による一定の操作が必要なレベル3あたりに位置しています。これについて、すでにレベル4に達していると言う人もいますが、レベル4でも道路の状況によっては人間による操作が必要です。そして完全に無人で走行できるのはレベル5のみですが、まだそこには到達していません。
そのため自動運転車に関しては、進化しつつあるものの、まだ人間による操作が必要であり、いずれレベル5の自動化が実現されることになるとは思いますが、業界の多くの関係者によると、それまでに10年かかる可能性は大いにあります。
また、完全に関係があるわけではありませんが、民間航空機におけるAIの成果も参考になるのではないでしょうか。自動操縦は100年前に発明され、80年間にわたって民間航空機の全体的な安全性を大きく向上させてきました。しかしさまざまな理由から、自動操縦は今もなお無人飛行を意味するものではなく、現時点では巡航中と着陸時だけに使用が限られており、地上走行中と離陸時には使用されていません。
それでも、労働市場では引き続き労働時間をさらに削減するための対策が求められる可能性があります。ただし、このような状況は以前にもあり、たとえば1900年以降、自動化によって年間労働時間は3,000時間から2,000時間にまで削減されましたが、経済と労働者はそれに適応してきました。また私が知っている創造的で生産性の高い企業は、現在すでに1週間の労働日数を実質的に4.5日にまで減らし、平均より多く休暇を取っています。
AIの危険性に対する世間の一般的な認識として、近いうちにAIが人間を支配する可能性があると考えられています。いわゆる超知能の可能性と危険性について、どのようにお考えですか。
これに関してはいくつか見方があり、短期、中期、長期的な視点に分けて見ていきます。
短期的な視点
私たちは現在、1つのタスクをこなすことができるAIシステムである、特化型人工知能を使用しています。ここでは、広く議論されてきたIQとEQの比較から離れて考えていきましょう。超知能を実現するには、マシンに汎用人工知能を搭載してから、感覚、意識、そして最終的には自我を持たせなければなりませんが、汎用人工知能を搭載した後のプロセスには高いハードルがあり、それは私たち人間でさえ生後約18か月、つまり鏡に映った自分の顔を認識し、鏡ではなく自分の顔に触れる年齢になってようやく自我を持つことからもわかります。
先ほども言いましたが、短期的には、こうしたテクノロジーはどれも人に取って代わるのではなく、人間の作業を補助する役割を果たすのではないかと思います。
しかし、よく言われるように未来はまだ白紙の状態であり、今の私たちの行動が未来を左右します。
中期的な視点
実際のところ、私たちは人間の脳とAIの違いを理解しなければなりませんが、後者に関しては、脳をモデルとする機械学習の手法である人工ニューラルネットワークを用います。
構造の観点から見ると、一般的な人工ニューラルネットワークがモノリシックである一方、脳は階層的に結合されていますが、これがおそらく、私たちが判断を下すときに、自然と脳内の階層の別の部分からもたらされる判断のための情報も活用している理由ではないかと思われます。
今もなお、脳は現在最大の人工ニューラルネットワークより約100万倍複雑であり、はるかに多くの部分が結合されています。一方、人工ニューラルネットワークの結合部分は、今のところわずか1桁にとどまっていますが、HPEのお客様であるBlue Brain Projectの研究者は、脳の結合部分をモデル化するには、20もの個別の方程式が必要であると述べています。
これがおそらく、私たち人間が今のところ何か新しいことを学ぶためにAIほど例を必要としない理由と思われます。またその結果として、人間の脳はAIよりはるかにエネルギー効率に優れており、私はエンジニアにピザをおごるとき、1切れで脳に3時間分のエネルギーを供給できるはずだと冗談を言っています。
機能の観点から見ると、人間の脳は衰えていきますが、人工ニューラルネットワークはその正反対で向上していきます。若いときの人間の脳には今より多くの結合部分がありますが、使用されていない神経結合は淘汰されます。また、脳は状況に適応するために絶えずフィルター処理を行っているため、人間は騒がしい群衆の中でも会話を続けることができます(ちなみに、ノイズのフィルター処理が必要になると私たちにとって望ましくない精神的な負荷が生じると見られており、ある大規模な調査では、空港が別の都市に移転したときに、移転元の学校の成績が上がる一方、移転先の学校の成績が下がったという結果が出ています)。
長期的な視点
ただし、長期的に見るとマシンは超知能を手に入れる可能性があります。では、超知能マシンはいつ頃登場するのでしょうか。
これについて、チューリング賞の受賞者であるGeoffrey Hinton氏は、現時点でAIが人間の脳よりはるかに単純であることを考えると、超知能マシンのようなものが登場するのは、早くても今から30年後になるのではないかと述べています。また実際、複雑性に百万倍の差があるという私の前述の目算とムーアの法則を考慮した場合も、約30年という結果が出ています。
次に疑問となるのが、複雑性だけが自我を生み出すのかという点です。私は、HPEのお客様であるプリンストン大学で講演を行ったとき、(すべてを説明することはできませんが)基礎となる構造から生じる新物性について解説する、創発特性に関するノーベル賞受賞者のPhil Anderson氏の論文のことを知ったのですが、それによると、複雑性のレベルが上がるたびに新物性が生み出される可能性があります。
複雑性のレベルが異なるさまざまな主題がある科学はわかりやすい例であり、生物学だけで生理学のすべてを説明することはできません。また同様に、化学だけで生物学のすべてを説明したり、物理学だけで科学のすべてを説明したりすることも不可能です。そのため複雑性が増すと、基盤となるテクノロジーの機能について説明できない部分があっても超知能が出現する可能性があります。このような創発特性により、私はマシンが自我を持つようになる可能性があるのではないかと考えています。
では、マシンが超知能を獲得した場合、私たちはそれに懸念を持たなければならないのでしょうか。そしてマシンは人間を敵対視するようになるのでしょうか。これは確かに1つの可能性であり、著名な思想家はその可能性を示唆しています。
また別の可能性もあり、私はそれを結合によって生まれた不死身のエイリアンと呼んでいます。もしあなたが自我を持つコンピューターだった場合、あなたは人間の学習方法を身につけておらず、人間の機能として自我を獲得したのではなく、自己強化学習で自我を形成してきたという意味でエイリアンであり、機能的に不死身(自らを補強できる)ということにもなります。
このように、楽観的に見ると、自己防衛について懸念することのないこうした不死身のエイリアンが、敵ではなく味方になる可能性があります。
AIの偏見について懸念はありますか。
AIモデルの良し悪しは、そのトレーニングに使用する例となるトレーニングセットによって決まります。そのデータに偏見が含まれているとAIモデルも偏見を持ち、AIの予測と判断にも偏見が反映されますが、プラスの側面として、私たちはすでにそうした問題に対応するための取り組みを開始しています。
偏見の軽減は、AI分野の重点目標となっており、Microsoft社やGoogle社などの企業はすでに、AIが間違った判断を下そうとしたときにユーザーに警告を行うことができる偏見チェックソフトウェアの開発に着手しています。これに関しては、同じくルールを使用するようなものですが、例から学習したマシンの予測と判断をチェックすることを目的としています。
ただし、偏見検出の自動化は、その他の自動化と同じように人間が定期的に関与しなければ実現することはできず、たとえば現在では、AIの認証制度の整備に向けた取り組みが進められています。私たちはすでにテクノロジー開発の多くの側面で認証を導入していますが、AIの偏見をなくすためにもこうた認証が必要であり、今後はそれによって、トレーニングデータがサービスを受ける人物のことを考慮した公正なものになっているかどうかをチェックする予定です。
私はまた、最初に自然知能とAIの違いを理解するにあたり、前述のポイントに従ってそれら2つの偏見がどのように異なる可能性があるのかについても研究を行ってきました。AIは提供されたデータに含まれる偏見を取り込みますが、私たち人間もそれとは異なる一時的な偏見、つまり今あったとしても昼食の後にはなくなっているような偏見を持っています。
これら2つの例は、対比効果と親近効果を示すものとなっています。対比効果は、熱湯に近い湯に手を入れてから温水に手を入れると、温水を冷たく感じてしまうといった現象を指します。一方、親近効果は、人間が一連の情報を与えられたときに、平均して最初の情報より最後の情報を覚えており、中間の情報の印象が最も薄くなるという現象です。また互いに補う合う別の偏見を組み合わせると、スピードと生産性だけでなく、公平性も高まる可能性があります。
つまり、正しい判断を下すためにマシンに依存することが増えつつある中で、私たちはそれが適切な判断であることも確かめる必要があります。正しいことが必ずしも適切であるとは限らないため、私たち人間が最終的な判断を下さなければならないのです。
この記事/コンテンツは、記載されている個人の著者が執筆したものであり、必ずしもヒューレット・パッカード エンタープライズの見解を反映しているわけではありません。
この記事/コンテンツは、記載されている個人の著者が執筆したものであり、必ずしもヒューレット・パッカード エンタープライズの見解を反映しているわけではありません。

Curt Hopkins
HPEの常勤ライター、17件の記事
Curt Hopkinsは、テクノロジー、セキュリティ、ビジネス、アフリカ、中南米、政治、旅行、音楽などの分野を得意とする、20年の経験を持つレポーター兼編集者です。Curtはさまざまなテクノロジーハードウェア/ソフトウェア企業のマーケティングコミュニケーションマネージャーや編集ストラテジストを歴任し、現在はHewlett Packard Labsの編集長を務めています。また書籍を出版している詩人であり、エッセイストでもあります。
enterprise.nxt
ITプロフェッショナルの皆様へ価値あるインサイトをご提供する Enterprise.nxt へようこそ。
ハイブリッド IT、エッジコンピューティング、データセンター変革、新しいコンピューティングパラダイムに関する分析、リサーチ、実践的アドバイスを業界の第一人者からご提供します。