Core ML
Core MLは、Appleのハードウェアを活用し、メモリ占有量と電力消費量を最小限に抑えながら、幅広い種類のモデルがオンデバイスでパフォーマンスを発揮できるよう最適化されています。
新機能
Core MLフレームワークがアップデートされ、モデルの読み込みと推論がさらに高速になりました。新しいAsync Prediction APIによって、MLを活用したインタラクティブな体験を簡単に構築し、ハードウェアの利用率を最大限に高めることができます。新しいCore ML Tools最適化モジュールを使うと、Appleハードウェアにデプロイするためにモデルを圧縮して最適化できます。モデルの変換中やPyTorchなどのフレームワークでモデルをトレーニングする際に、サイズのプルーニング、量子化、およびパレット化の各ユーティリティを適用すると、圧縮時にモデルの精度を維持できます。
Core MLのさまざまな機能
モデルの実行をデバイス上で完結
Core MLモデルは完全にユーザーのデバイス上で実行されるため、ネットワーク接続を必要とせず、アプリの応答性を保ちながら、ユーザーデータのプライバシーを保護することができます。
高度なニューラルネットワークの実行
Core MLは、画像、ビデオ、音声、その他のリッチメディアを理解するよう設計された最先端のニューラルネットワークなど、最新のモデルに対応しています。
Core MLへのモデルの変換
TensorFlowやPyTorchなどのライブラリからのモデルを、Core ML Toolsを使って、これまで以上に容易にCore MLに変換できるようになりました。
オンデバイスでのモデルのパーソナライズ
アプリにバンドルされているモデルは、ユーザーデータを使ってオンデバイスでアップデートできるため、プライバシーを侵害することなく、ユーザーの行動に合わせてモデルをアップデートしていくことができます。