Apple Watch Ultra 2。写真: Bloomberg 。 |
ブルームバーグのPower Onニュースレターで、アナリストのマーク・ガーマン氏は、Appleが物体認識と分析機能を備えたカメラ付きのApple Watchを開発していると語った。
当初のコンセプトによれば、このデバイスはカメラとマイクを使い、AI を活用して装着者の周囲の状況を分析し、それに基づいてコンテキストを提供することが期待されています。
このメカニズムは Visual Intelligence と同様に機能します。 iPhone 16 で初めて登場したこの機能を使用すると、カメラコントロールを押したまま、Google レンズまたは ChatGPT を使用して分析する任意のオブジェクトをキャプチャできます。このモードでは、テキストを要約、翻訳したり、特定のオブジェクトや場所を識別したりすることもできます。
現在、Visual Intelligence 機能は iPhone 16 のみをサポートしているため、これについて知っている人は多くありません。iOS 18.4 アップデートでは、Apple は Visual Intelligence を iPhone 15 Pro に導入し、アクションボタンによるアクティベーションをサポートする予定です。
噂によると、Apple は Visual Intelligence を AirPods やカメラ内蔵の Apple Watch など、さらに多くのデバイスに拡張する予定です。 AppleもOpenAIやGoogleに頼るのではなく、独自のAIモデルを使用したいと考えています。
噂が正しければ、これはAppleにとってAIウェアラブル市場への第一歩となるだろう。近年、AIウェアラブル市場はHumane AI Pin(失敗作)、Metaスマートグラスなどの登場で活況を呈しています...
「将来のAirPodsと同様に、カメラはApple Watchが世界を認識し、AIを使って関連情報を提供するのに役立ちます」とガーマン氏は語った。しかし、この製品は少なくとも2027年までは発売されない可能性があります。
現在の計画によれば、AppleはApple WatchシリーズとApple Watch Ultraにカメラを追加する予定だ。 Series ラインでは、レンズは iPhone の自撮りカメラのように前面に配置される可能性がありますが、Ultra ラインでは、カメラは Digital Crown ノブの近くの側面に配置されると予想されます。
「Apple Watch Ultraは厚みがあり、部品のためのスペースが広いため、Appleがこのアプローチを検討している可能性があります。つまり、Ultraユーザーは手首を簡単に傾けて物体をスキャンできますが、Apple Watch Seriesユーザーは手首を逆さまにする必要があります」とガーマン氏は述べた。
![]() |
iPhone 16のビジュアルインテリジェンス。写真: Hindustan Times 。 |
Apple Watch のカメラはビジュアルインテリジェンスにのみ使用されると思われます。ブルームバーグの記者は、時計の画面が小さすぎるため、長時間手首を上げるのが不快になる可能性があり、FaceTimeビデオ通話機能は実現できないと述べた。
全体的に見て、Apple は異なる戦略を追求しています。同社は、まったく新しいデバイスカテゴリーを立ち上げるのではなく、既存の製品ラインに AI を追加しています。つまり、ユーザーは新しい機能に徐々に慣れながら、使い慣れたエクスペリエンスを維持できるということです。
「もちろん、AppleはAIシステムを本格的にアップグレードし、機能をより便利にする必要があります。AirPodsとカメラ内蔵のApple Watchが発売されると予想される2027年までに、Appleはそれを完了させる能力を十分に備えています」とガーマン氏は強調した。
コメント (0)