ホーム jpn Apple Intelligenceは2024年にSiriを改善するが、ほとんどのアップデートは2025年まで期待できない

Apple Intelligenceは2024年にSiriを改善するが、ほとんどのアップデートは2025年まで期待できない

19
0


スクリーンショット:Nina Raemont

もしあなたがSiriがいつか本来の働きをしてくれることを期待していたなら、iOS 18でついにその願いが叶うかもしれない。しかし、改善は一度にすべて実現するわけではないだろう。ブルームバーグの パワーオンニュースレター最新号技術記者でありAppleウォッチャーでもあるマーク・ガーマン氏は、2024年にSiriにどのような進歩がもたらされる可能性があり、また2025年まで登場しないものはどれかについて議論した。

1週間前のWWDC 2024カンファレンスで、Appleは Siriに予定されているいくつかの変更点を宣伝したその多くは同社の Apple Intelligence テクノロジーによるものです。本質的には、Apple の音声アシスタントは最終的には自然言語を使用してユーザーの理解を向上させ、会話の文脈を記憶し、現在の画面を認識し、さまざまなアプリ間でタスクを実行できるようになるはずです。

また: SiriはAppleのBingになった。AIに触発された変化の時が来た

Apple は具体的にどの機能がいつ登場するかを明らかにしなかったが、Gurman 氏はいくつかのヒントを与えてくれた。

ガーマン氏によると、iOS 18は今秋に正式リリースされる予定で、Siriは今年、いくつかの「新機能」を搭載する予定だという。インターフェースはそのリストの1つだ。画面下部にあるおなじみの渦巻くボールは、画面の端を囲む輝く背景ライトに置き換えられる。

次に、Siri は、たとえあなたが間違えたとしても、あなたの言うことをよりよく理解できるようになります。WWDC で、Apple は、音声リクエストで意図的に間違いを犯し、その後訂正することで、この機能をデモしました。Siri は間違いと訂正を拾い上げ、質問に適切に答えるのを助けました。

Siri はより自然な会話もできるようになるはずです。たとえば、会話のやり取りで質問やリクエストをするたびに「Hey Siri」や「Siri」と言う必要がなくなります。さらに、Siri は Apple 製品に対する理解度が高まり、おそらくデバイスを参照して操作できるようになるでしょう。

最後に、音声アシスタントは「Siri に入力」オプションを提供します。これは、公共の場や騒がしい場所にいて、リクエストを話すよりも入力したい場合に便利です。

今年予定されている機能の充実した組み合わせのように思えます。アップデートがすべて計画通りに機能すれば、Siri の使いやすさとストレスの軽減に大きく貢献するでしょう。それでも、来年まで公開されない可能性のある項目が山ほど残っているとガーマン氏は述べ、「Apple Intelligence の開発に携わる数名の従業員が Power On に、サービスの一部は来年までリリースされないと伝えた」と説明しています。

また: iPhone、Mac、iPadに搭載されるAppleのAI機能について知っておくべきこと

2025 年に予定されている Siri のアップデートの 1 つは、コンテキストに基づいてデバイス上のアイテムを検索して操作する機能です。Apple が WWDC でデモした 1 つの例として、Siri に母親の飛行機がいつ着陸するか尋ねることができます。Siri は、母親と以前に交換したメールやテキストに基づいて適切な情報を提供します。他の例では、配偶者が共有したポッドキャストや同僚からメールで送信されたドキュメントを取得するように Siri に依頼する簡単なコマンドを発行できます。

セマンティック インデックスと呼ばれるもう 1 つの機能は、Siri がデバイス上のコンテンツや個人データのコンテキストをより適切に把握するのに役立ちます。この場合、特定のデータに直接関連する質問をしたり、リクエストを発行したりできます。

また: Apple がクラウドで処理された AI データを安全に保管する方法 (そしてそれが重要な理由)

Siri は将来、1 回のリクエストで複数のアクションを実行してデバイスやアプリを制御できるようになるでしょう。たとえば、赤いジャケットを着た特定の友人の写真を見せるように Siri に頼み、次にその写真を編集するように頼み、最後にその写真をメールで送信するように頼むといったことも可能になります。

ガーマン氏が2025年に登場を予想しているもう1つの機能は、オンスクリーン認識だ。このアップデートにより、Siriは現在の画面とあなたが何をしているかを認識するようになる。例えば、友人とレブロン・ジェームズについてテキストでやり取りしているとしよう。Siriに、バスケットボールのスター選手が昨夜何点取ったか尋ねると、画面上の情報に基づいて質問に答えてくれる。

ガーマン氏によると、Siri の AI を活用した新機能へのアクセスも最初は制限されるという。秋に Apple Intelligence 機能がリリースされるときにはプレビュー モードになるが、これはまだ完全に完成していないことを示している。AI スキルは特定の Apple デバイスでのみ、米国英語でのみ動作する。ガーマン氏は、新機能を利用するには順番待ちリストに登録する必要があるかもしれないとさえ示唆している。

また: Apple の WWDC で発表された最高の AI 新機能が退屈になる理由 (そしてそれが嬉しい理由)

なぜ新しい Siri と Apple Intelligence のスキルをこのように断片的に配布するのでしょうか。Gurman 氏はいくつかの理由を挙げました。

段階的なアプローチにより、Apple は特定の機能に取り組むのに必要な時間を確保し、完了したらリリースし、その後他の機能に移ることができる。米国英語から始めることで、Apple は AI と Siri を他の言語でトレーニングする時間を増やすことができる。さらに、Apple は AI と Siri サービスを処理するクラウド環境を構築する時間も増える。

Apple ユーザーとして言えば、同社がこれらの新機能を徐々に展開していくのを喜んで待ちたい。私の唯一の望みは、これらの新機能が待つ価値があり、Siri が最終的に本来の音声アシスタントになることだ。





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください