iPhoneユーザーに朗報!GoogleのAI「Gemini」が、なんとロック画面から直接使えるようになりました。
これまでアプリを開く手間があったけど、もうそんな面倒はナシ。ウィジェットを追加すれば、ワンタップでGeminiと会話ができちゃいます。
一方で、AppleのSiriは進化が遅れていて、新機能が出るのは2027年とのウワサ…。このままGeminiがiPhoneの新・相棒になるかも?
ロック画面から直接アクセス!Geminiの新機能とは?

iPhoneユーザーに嬉しいニュース!GoogleのAI「Gemini」が、ロック画面から直接使えるようになりました。これまでアプリを開く必要がありましたが、新しいウィジェットを追加すれば、ワンタップでGeminiに話しかけられるんです。
具体的には、「Gemini Live」と呼ばれるリアルタイム音声機能をロック画面から起動できるようになりました。これで、ちょっとした疑問が浮かんだときも、すぐにAIに聞くことができます。しかも、テキスト入力や画像検索など、さまざまなショートカットも用意されているので、用途に合わせてカスタマイズ可能です。
さらに、カメラ機能を活用して、写真を撮るだけでGeminiに質問できるのもポイント。たとえば、レストランのメニューを撮影しておすすめを聞いたり、見たことのない植物の名前を調べたりするのが一瞬でできちゃいます。今までの「検索して調べる」から、「撮って聞く」時代へと進化した感じですね。
これまでSiriに頼っていた人も、Geminiの便利さを知ったらもう戻れないかもしれません。AppleのAIアシスタントの進化が遅れる中、GoogleはiPhoneユーザーをしっかり取り込もうとしています。果たして、今後のスマホAI戦争はどうなるのか?今から楽しみですね!
Siriが遅れる間に…Googleが攻めのアップデート!
実は、AppleのSiriは開発の遅れが報じられていて、次世代AIの実装は2027年になる可能性があると言われています。その間に、GoogleはどんどんGeminiを進化させて、iPhoneユーザーにとって「なくてはならない存在」になろうとしているんです。
今回のアップデートでは、ロック画面だけでなく、他のアプリとの連携も強化されました。たとえば、どのアプリからでもテキストや画像、リンクをGeminiに送れる機能が追加されています。これにより、ニュース記事を読んでいるときに気になる単語をすぐに調べたり、撮影した写真から関連情報を引き出したりするのが簡単になりました。
また、「Deep Research」という新機能も登場。これは、Geminiに複雑な質問を投げかけても、深くリサーチした情報を提供してくれるというものです。通常のAIアシスタントだと「簡単な答え」しか返ってこないことが多いですが、Geminiはより詳細で正確な情報を提供するために進化しています。
Appleが次のSiriを発表するまで、あと2年以上の時間があります。その間にGoogleは、Geminiをさらに便利にし、ユーザーの生活に溶け込ませることで、iPhoneユーザーの心をつかもうとしているのかもしれません。このままいくと、2027年には「Siri?あぁ、昔そんなのあったね」と言われる時代が来るかも…?
Android版も進化中?未来のAIアシスタント競争とは
今回のアップデートで、iPhone版のGeminiは大幅に進化しましたが、実はAndroid版も負けていません。なんと、3月中には「画面に映っている映像やテキストを読み取り、リアルタイムで質問に答える機能」が追加される予定なんです。
たとえば、YouTubeでレシピ動画を見ているときに、「これって何人分の分量?」とGeminiに聞けば、即座に回答してくれるかもしれません。まるで、映像の内容を理解するパーソナルアシスタントがスマホの中にいる感覚ですね。
この機能は、Google DeepMindの「Project Astra」という最新のAI技術がベースになっています。今までは文章や音声に対してAIが反応するのが普通でしたが、これからは「映像」も理解できるようになるのです。まさに次世代AIアシスタントと呼ぶにふさわしい進化ですよね。
Appleも独自のAI開発を進めてはいますが、Geminiの進化スピードには追いつけていないのが現状です。今後、スマホのAIアシスタント戦争がさらに激化していくのは間違いありません。
もしかすると、数年後には「どのAIアシスタントを使うか」でスマホを選ぶ時代が来るのかも…?これからの進化がますます楽しみですね!
Source:Dataconomy