AI・データサイエンス

ELYZA、700億パラメータの大規模言語モデル(LLM)「ELYZA-japanese-Llama-2-70b」の開発を発表

ELYZAは3月12日(現地時間)、700億パラメータの大規模言語モデル(LLM)「ELYZA-japanese-Llama-2-70b」の開発を発表した。「ELYZA-japanese-Llama-2-70b」を含むパッケージは「ELYZA LLM for JP」シリーズとして提供され、無償で使えるデモサイトも公開されている。

「ELYZA」は、LLMの社会実装を進める東京大学松尾研究室が立ち上げた、AI リサーチ&ソリューション事業、AI SaaS事業に取り組む企業。「ELYZA-japanese-Llama-2-70b」は、同社の日本語ベンチマーク「ELYZA Tasks 100」によるブラインドテストや、Stability AIのベンチマーク「Japanese MT-Bench」の自動評価で高いスコアをマークした実績を持つ。国産の日本語LLMで最高の性能を発揮したほか、「GPT-3.5 Turbo」シリーズや「Gemini 1.0 Pro」に匹敵する性能を達成している。

 デモサイトでは、あらかじめ、[情報整理(表形式)]、[対話要約]、[情報抽出]などのボタンが用意されており、クリックするだけでそれぞれの用途の結果がプロンプトして入力される。入力されたプロンプトを編集することで、自分の目的に合った文章を得ることができる。

 同社は、今後も日本語における汎用LLMの開発・改善を進めていくとしている。また、業界・企業などに特化したLLMの開発も開始する予定。

(川原 龍人/びぎねっと)

[関連リンク]
プレスリリース(PR Times)
ELYZA LLM for JP デモ版