Core ML

Core MLは、Appleのハードウェアを活用し、メモリ占有量と電力消費量を最小限に抑えながら、幅広い種類のモデルがオンデバイスでパフォーマンスを発揮できるよう最適化されています。

新機能

Core MLフレームワークがアップデートされ、モデルの読み込みと推論がさらに高速になりました。新しいAsync Prediction APIによって、MLを活用したインタラクティブな体験を簡単に構築し、ハードウェアの利用率を最大限に高めることができます。新しいCore ML Tools最適化モジュールを使うと、Appleハードウェアにデプロイするためにモデルを圧縮して最適化できます。モデルの変換中やPyTorchなどのフレームワークでモデルをトレーニングする際に、サイズのプルーニング、量子化、およびパレット化の各ユーティリティを適用すると、圧縮時にモデルの精度を維持できます。

最新のビデオを見る

Core MLのさまざまな機能

モデルの実行をデバイス上で完結

Core MLモデルは完全にユーザーのデバイス上で実行されるため、ネットワーク接続を必要とせず、アプリの応答性を保ちながら、ユーザーデータのプライバシーを保護することができます。

高度なニューラルネットワークの実行

Core MLは、画像、ビデオ、音声、その他のリッチメディアを理解するよう設計された最先端のニューラルネットワークなど、最新のモデルに対応しています。

Core MLへのモデルの変換

TensorFlowやPyTorchなどのライブラリからのモデルを、Core ML Toolsを使って、これまで以上に容易にCore MLに変換できるようになりました。

オンデバイスでのモデルのパーソナライズ

アプリにバンドルされているモデルは、ユーザーデータを使ってオンデバイスでアップデートできるため、プライバシーを侵害することなく、ユーザーの行動に合わせてモデルをアップデートしていくことができます。

Mac Studioと、Xcodeのウインドウが開いているApple Studio Display。

Xcodeとのインテグレーション

Core MLはXcodeと緊密に統合されているため、コードを1行も記述することなく、モデルの挙動やパフォーマンスを検証できます。自動生成されるSwiftとObjective-Cのインターフェイスを使用すると、簡単にモデルをアプリに統合できます。また、Core MLおよびNeural EngineのInstrumentsを使用すると、アプリのCore MLを活用する機能をプロファイルできます。

パフォーマンスレポート

コードを一切記述することなく、接続したデバイス上で測定した、モデルに関するパフォーマンスレポートを生成できます。読み込み回数と予測回数の概要や、演算ユニットの使用状況の内訳をレビューすることができます。

Instrumentsを使用したプロファイル

Core MLのInstrumentsを使用すると、アプリをプロファイルして、Core ML APIコールや関連するモデルを表示できます。また、Core MLが処理をハードウェアにディスパッチした箇所とタイミングを確認したり、MetalやNeural EngineのInstrumentsを使用してさらに詳細を確認したりすることができます。

ライブプレビュー

サンプルデータファイルや、デバイスのカメラとマイクからのリアルタイムデータを使用して、Xcode内でモデルの挙動を直接プレビューできます。

モデルの暗号化

Xcodeがモデルの暗号化に対応し、機械学習モデルのセキュリティがさらに強化されています。

パワフルなAppleシリコン

Core MLは、メモリ占有量と電力消費量を最小限に抑えつつ、パフォーマンスを最大限に高めるために、CPU、GPU、Neural Engineなどのパワフルなハードウェアテクノロジーを最も効率的な方法でシームレスに活用できるように設計されています。

Core MLの利用開始

Create ML

Mac上で、コードを書かずにCore MLモデルを構築およびトレーニングすることができます。

さらに詳しく

Core ML Tools

coremltools Pythonパッケージを使って、サードパーティのトレーニングライブラリからのモデルをCore MLに変換しましょう。

さらに詳しく

モデル

研究コミュニティから提供されている、Core MLに変換済みのモデルを使ってみましょう。

モデルを見る