2024.09.26
日本人には…ちょっと…縁遠い「Llama」
Metaが…LLMの最新版「Llama 3.2」をリリースした…。
3.1から2ヶ月でのアップデート…
マルチモーダルモデルが追加されて…
テキスト…画像…音声….などを一度に処理できるようになったみたいですね…。
https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices
因みに↑の右上の…Try Meta AIをクリックしてみると…



MetaはLLM(大規模言語モデル)の最新版「Llama 3.2」を2024年9月25日に開催された年次開発者会議「Meta Connect 2024」で発表しました。この新バージョンには以下のような主要な特徴があります:
主な特徴
- マルチモーダル機能
- 11Bと90Bのモデルで画像認識機能をサポート
- 表やグラフの理解、画像キャプション生成、視覚的なグラウンディングなどが可能
- 軽量モデル
- 1Bと3Bの軽量モデルを提供
- エッジデバイスやモバイルデバイス向けに最適化
- 128Kトークンのコンテキスト長をサポート
- ハードウェア対応
- QualcommやMediaTekのハードウェアで動作
- Armプロセッサ向けに最適化
- Llama Stack
- 様々な環境でLlamaモデルを簡単に利用できるディストリビューション
- RAG(検索拡張生成)や安全性が統合されたツール対応アプリの展開が可能
利用可能性
Llama 3.2は開発者が無料で利用可能です。以下の方法で入手できます:
- llama.comからダウンロード
- Hugging Faceからダウンロード
- AMD、AWS、Google Cloud、Microsoft Azure、NVIDIAなど多数のパートナー企業のプラットフォームで利用可能
この新バージョンにより、開発者はプライバシーを重視したオンデバイスのパーソナライズされたアプリケーションを構築できるようになります。Llama 3.2は、前バージョンからの大幅な更新となっており、AIの応用範囲をさらに広げる可能性を秘めています。
by Perplexity
New Posts: