PANewsは12月30日、「ガーディアン」紙の報道によると、人工知能の研究でノーベル物理学賞を受賞した「人工知能のゴッドファーザー」ジェフリー・ヒントン氏が、AIは今後30年以内に人類を絶滅に導くだろうと警告したと報じた。確率は10%から20%の間です。 AI技術の開発スピードは「予想をはるかに上回っており」、人間の知能を超えたAIシステムの制御は難しい可能性があると指摘した。
ヒントン氏は、AIの安全な開発は企業の利益追求の動機だけでは保証できないとして、政府に対しAI技術の監督を強化するよう求めた。同氏は、AI分野の多くの専門家が今後20年以内に人間よりも知能の高いAIシステムが出現し、人類にとって大きな脅威となると予測していると強調した。
さらに、「AIのゴッドファーザー」でもあるメタの主任科学者ヤン・ルカン氏は異なる見解を持っており、AIが人類を滅亡から救う可能性があると信じている。