シェア
下記記事にまとめたcoremltools 8 / iOS 18の新しいモデル圧縮手法を実際に試してみたい。 WW…
下記記事にまとめた「Transformerアーキテクチャの最適化」を実際に「やろうとした」メモ。 …
Core MLの新機能「Multifunction models」について、WWDC24では2つのセッションで解説があった…
WWDC24のセッション "Deploy machine learning and AI models on-device with Core ML" の「Mo…
WWDC24のセッション "Bring your machine learning and AI models to Apple silicon" の「Tran…
WWDC24のセッション "Bring your machine learning and AI models to Apple silicon" で解説さ…
下記記事に書いたやつを使ってみた。 なおWWDC24のセッションでNEWと発表されていたが、iOS 17.4, macOS 14.4, watchOS 10.4から利用できる。つまりベータではなく今すぐ正式版が利用できる。
この記事はマガジンを購入した人だけが読めます
DockKitは、iOS 17で追加されたフレームワークで、対応デバイスが今年に入ってやっと発売され…
WWDC24のセッション "Build a great Lock Screen camera capture experience" を見たメモ ロ…
WWDC24のセッション "Build a great Lock Screen camera capture experience" を見たメモ iOS…
WWDC24のセッション "Bring your machine learning and AI models to Apple silicon" のセッシ…
WWDC24のセッション "Discover Swift enhancements in the Vision framework" を見たメモ。 (なお当初本記事のタイトルを「VisionのiOS 18での新機能」と書いていて自分でも空目しそうになったので変更したのだが、"visionOS" ではなく "Vision" フレームワークの話です) セッションのアジェンダNew Vision API Optimize with Swift Concurrency Upd