OLMo 2 32B logo

OLMo 2 32B

Ai2から初の完全オープンなSOTAモデル

Artificial Intelligence GitHub Open Source

概要

OLMo 2 32Bは、アレン人工知能研究所(Ai2)から提供される完全にオープンな大規模言語モデル(LLM)です。これにより、データ、コード、重みがすべて公開されています。

特徴

  • パラメータ数: 32Bパラメータで、中規模の範囲に位置。
  • 訓練データ: 6兆トークンを使用し、二段階の事前学習プロセスを実施。
  • 性能: GPT-3.5 TurboやGPT-4o miniと比較可能なパフォーマンスを発揮。
  • 訓練技術: GRPOやRLVRを利用した効率的な訓練が行われています。
  • ライセンス: Apache 2.0ライセンスの下で、モデル、訓練データ、コードが公開。

このリリースは、研究者や開発者に対し、能力の高いLLMとその訓練パイプラインへの完全なアクセスを提供し、Ai2の透明性への取り組みを強調しています。OLMo 2 32Bを使って、新たな可能性を試してみてください。

投票数: 2
← 投稿一覧に戻る