蒸留(Knowledge Distillation)とは、大きなAIモデル(教師モデル)の知識を小さなモデル(生徒モデル)に移す圧縮技術。モバイル端末やエッジデバイスでの軽量AI運用に活用される。
AI用語辞典
蒸留(Knowledge Distillation)とは、大きなAIモデル(教師モデル)の知識を小さなモデル(生徒モデル)に移す圧縮技術。モバイル端末やエッジデバイスでの軽量AI運用に活用される。
For Business
戦略策定から技術選定・導入支援まで、
AI産業の最新知見をもとに、貴社の事業成長を支援します。