Appleはそれらをすべて支配するために人工知能システムを構築しています
Siriは、iphone 13が出荷されるとすぐに大幅な改修を行う準備ができているため、Appleは重要な音声AIトレードショーに参加し、実際に、この種の人工知能(ML)の情報のいくつかを明らかにする研究を発表しました。 「オーバートン」と呼ばれるテクノロジー。 人工知能のホームウィンドウの定義今週、Appleは世界最大の話し言葉の洗練された会議であるInterspeech2019に資金を提供しています。 その際の運営の一環として、実際にいくつかの調査研究文書を送信しました。また、拡大する人工知能グループの参加者は、確実にゲストを満足させるでしょう。 他のさまざまな主題の中で(以下のすべてを参照)、Appleは確かに、音声による表現/意図の発見、音声認識の向上、音声の微妙さを理解するためのさらに正確なデバイスの作成、人間と音声の間の接続を開発するためのマッチングの利用に関するドキュメントを提供します音声の改善を最大化するための支援とテクノロジーの活用。 同社がMLで何に依存しているかについては、新しいInterspeech Youtube Webサイトでもう少し詳しく知ることができますが、Appleのビデオクリップが確実に表示されるかどうかはわかりません。 Appleの研究者がより広い臨床領域に関与していることはショックではありません。 同社は実際に、2017年に、機械学習のウェブサイト自体でドキュメントやステートメントを見つけるデバイスをリリースしました。 オーバートンの紹介Appleは、Overtonで初めての救済策があると主張しています。これは、MLバージョンのカスタマイズの多くを、人間ではなくデバイスで実行できるようにすることを目的としています。 音声通信は、Siriに問い合わせたときに行われることのフロントエンドにすぎません。 機械理解バージョンは、その後、問い合わせを理解し、コンテキスト化して、最も正確なフィードバックの1つを見つけることを試みる必要があります。 高品位のフィードバックを提供することは、見た目よりも本当に大変です。 確かに、いくつかの検査では、Siriから受け取るのは、ウィキペディアのWebページにある情報だけです(ただし、その後、そのようなWebページの数を調べて、最も適切なフィードバックの1つを選択することもできます)。 しかし、最終的な目的は、Siriが複雑な問題の複雑な解決策、さらにはそれらを予測するための信頼できるリソースになることである必要があります。 これらの以下の行動は達成するのが難しいです。 研究者は、Siriが行う必要のあるフィードバックが、提供される最も正確なものの1つであることをどのようにしてはるかに確信できるようになるのでしょうか。 これは、Appleが「モデルの構築、展開、監視のライフサイクルを自動化する」Overtonで解決している一種の困難です。...