【警告】「反社勢力摘発! 主犯はAIだった…」←とっくにそんな時代

2019.08.19

人工知能はもう悪用される段階に


14機関の専門家26人が英オックスフォードで「AIの危険」についてワークショップを開き、その結果をもとにして100ページにわたる報告書『悪意ある人工知能の利用』を発表。報告書には、非営利研究機関「オープンAI」やデジタル権利団体「電子フロンティア財団」、米国立安全保障シンクタンク「新アメリカ安全保障センター」も参加している。
報告書は、AIが最も悪用される可能性がある3つの分野として、(1)デジタル(2)現実世界(3)政治を特定しており、AIシステムの設計者は、自分たちが開発する技術が悪用される可能性を減らすために、今まで以上に努力する必要があると強調する。
報告書の中では、ならず者国家や犯罪者、テロリストによるAIの悪用はすでに現実のものであり、悪用される技術の多くはすでに開発済みで機は熟していると警告している。
中でも、人間の実例や指導のないままAIに超人的なレベルの知能を習得させる「強化学習」と呼ばれる新分野こそ注目すべきであり、近い将来にAIが「悪者」になってしまうシナリオが考えられるだろう。犯罪者がAIに人間並みのハッキングやフィッシュ技術を学習させたり、個人のプライバシーなどの有名無実化する監視・プロファイリング・抑止技術を覚えさせるなど、セキュリティにとてつもなく多大な影響が及び、AIが市民や組織、国家を取り巻くリスク状況を変えてしまうことが危惧される。
【報告書の主な提言】
・政策決定と技術研究の担当者は連携して悪意あるAIの使用について理解し、備えなければならない
・AIは様々な形で有用だが、諸刃の剣の技術で、研究者や技術者は悪用される可能性に留意し、先回りして対応する必要がある
・善悪両方に使える技術を長く扱ってきた分野(たとえばコンピューターのセキュリティ)から、最善慣行を学ぶべき
・AIの悪意ある使用リスクを軽減し防止しようと取り組む、利害関係者の範囲を積極的に拡大させる
(BBCニュース『人工知能はもう悪用される段階に 専門家警告』2018年02月21日)

詳しくはこちら

コメントを残す

メールアドレスが公開されることはありません。 *が付いている欄は必須項目です

関連記事

TOPICS

MORE