Appleが開発したAI「Apple Intelligence」のニュース要約機能が、大きな批判を浴びています。間違った情報を報じたり、ヘッドラインを混乱させたりした結果、Appleはこの機能を一時停止することに。

驚くべきことに、この欠陥についてはAppleのエンジニアたちが事前に警告を出していたのです。数学の問題を使った実験で明らかになった「AIの弱点」とは、一体何だったのでしょうか?

リリース前からわかっていた問題をあえて無視した背景についても探ります!

AppleのAIニュース要約機能が中断された理由

Appleが最近リリースしたAI「Apple Intelligence」が、大きな波紋を呼んでいます。特にニュース要約機能では、見出しの意味が変わってしまうミスや、まるで架空の話のような内容を含むことが指摘され、多くの批判を受けました。その結果、Appleはこの機能を一時的に停止する決定を下したのです。

ニュースを簡単にわかりやすくするどころか、誤情報が混じることで信頼性を損ねる結果に。例えば、記事の背景や内容に関する重要な部分が省かれていたり、逆に余計な情報が加えられてしまったりすることがありました。ユーザーにとっては「これ、ホントに読んでた?」と言いたくなるような内容もあったようです。

実は、こうした問題はAI全般に共通の課題でもあります。「AIの幻覚」とも呼ばれるこの現象は、特に大規模な言語モデル(LLM)で見られるもので、情報を正しく解釈できず、ただそれっぽい内容を出力してしまうのが特徴です。Appleがこの事実を知りながらもリリースを強行した背景には、一体何があったのでしょうか?

数字や名前を変えるだけで成績急降下?AIの意外な弱点

Appleのエンジニアたちは、このAIの弱点をすでに掴んでいました。その鍵となったのが、数学の問題を使った実験です。この実験では、AIに簡単な計算問題を解かせました。例えば「5つのパックの肉があり、それぞれ4ポンドで、1ポンドあたり5.50ドルです。全部でいくらになりますか?」というような問題です。中学生でも解ける内容ですよね。

ところが、これに少し手を加えて数字や名前を変更したり、どうでもいい情報を付け加えたりすると、AIの正答率が大幅に下がることがわかったのです。さらに驚くのは、ある問題では「小さすぎる果物」なんて無関係なコメントを加えただけで、65%もの正答率の低下が見られたということ。この結果には、開発チームもさすがに頭を抱えたようです。

AIが問題解決のために必要な情報を取捨選択できないのが、この結果の原因とされています。要するに、AIは表面上のパターンを真似ているだけで、実際には「考えていない」というわけです。この弱点を見逃してはならないのに、なぜAppleは製品化を急いだのでしょうか?

問題を知りながらリリースしたAppleの意図とは

Appleがリリース前からAIの欠陥を把握していたのは間違いありません。それなのに、なぜこの技術を世に出したのか?これには、AppleだけでなくAI業界全体のトレンドが関係しているようです。競争が激化する中で、他社に遅れを取らないために、多少のリスクを取ってでも新製品を出す必要があったのかもしれません。

AI業界では、未完成な技術でも「後から修正すればいい」というスタンスが広まっています。Appleもまた、この流れに乗ったと考えられます。とはいえ、ユーザーが誤情報に振り回されるリスクを考えると、「そんなこと言われても困るよ!」というのが本音ですよね。

今回の失敗を受け、AppleはAIの改良を進めると発表しました。とはいえ、他社も似たような問題を抱えている現状では、解決は簡単ではなさそうです。Appleが今後どう対応していくのか、そしてAI技術が本当に信頼できるものになる日は来るのか、私たちも引き続き注目していきたいですね!

Source: Futurism