Global Trend Radar
Web: qiita.com US web_search 2026-05-01 04:05

LLMのパラメータ数、学習データ量ってなに? - Qiita

元記事を開く →

分析結果

カテゴリ
教育
重要度
62
トレンドスコア
26
要約
LLMのパラメータ数、学習データ量ってなに? #Claude - Qiita 10 いいねしたユーザー一覧へ移動 7 X(Twitter)でシェアする Facebookでシェアする はてなブックマークに追加する more_horiz 記事を削除する close 一度削除した記事は復旧できません。 この記事の編集中の下書きも削除されます。 削除してよろしいですか? キャンセル 削除する delete info この記事は最終更新日から1年
キーワード
LLMのパラメータ数、学習データ量ってなに? #Claude - Qiita 10 いいねしたユーザー一覧へ移動 7 X(Twitter)でシェアする Facebookでシェアする はてなブックマークに追加する more_horiz 記事を削除する close 一度削除した記事は復旧できません。 この記事の編集中の下書きも削除されます。 削除してよろしいですか? キャンセル 削除する delete info この記事は最終更新日から1年以上が経過しています。 @ ymgc3 in TIS株式会社 LLMのパラメータ数、学習データ量ってなに? grok LLM Claude Mixtral Command-R+ 10 最終更新日 2024年12月17日 投稿日 2024年04月20日 はじめに LLMのモデルサイズ(例.8B、70B)とかって、イメージ湧かなくないですか? 一般の方からすると。凄さとか、学習の大変さが伝わりづらい 「モデルのパラメータ数」と「事前学習のデータ量(トークン数)」も混同しがち このへんを整理していきます。 パラメータ数と学習データ量 モデルのパラメータ数 パラメータとは、機械学習モデルが学習によって調整する変数のこと パラメータの数が多いほど、モデルは複雑な関数を表現できる パラメータ数は、モデルの "表現力" と言えます 最新の大規模言語モデル (LLM) は、数百億から数兆のパラメータを持つものもある 例えば、1000億のパラメータを持つモデルは、1000億個の "ニューロン" を持つ人間の脳に例えることができます。 学習データ量 機械学習モデルは、大量のデータから規則性やパターンを学習します 学習に使うデータの量が多いほど、モデルはより多くのことを学習できます LLMの学習には、数千億から数兆トークンのテキストデータが使われます 例えば、8000億トークンのテキストデータは、約80万冊分の書籍に相当します。東京都立図書館の全蔵書の約7倍に相当する膨大な量です。 主要なモデルのパラメータ数と学習データ量 この表から、最新のLLMがいかに膨大な量のテキストデータを使って学習されているかが一目瞭然ですね。 Chinchilla則(パラメータ数の20倍の学習データ量)を満たすか、それ以上のデータ量が使われているのがわかります。 モデル名 会社 パラメータ数 学習データ量(token) パラメータ数:データ比率 学習データ量 Mixtral Mixtral AI 1760億 8000億 約46倍 約80万冊分に相当 Command R+ Cohere 1040億 4000億 約40倍 約40万冊分に相当 Grok 1.5 Grok 3140億 6000億 約20倍 約60万冊に相当 Claude-3 OPUS Anthropic 2兆 4兆 約20倍 約400万冊分に相当 参考資料 本記事で載せる各モデルのパラメータ数などはいかの資料をインプットにしています。 モデルサイズなどは推定値を含みます。 10 いいねしたユーザー一覧へ移動 7 comment 0 コメント一覧へ移動 新規登録して、もっと便利にQiitaを使ってみよう あなたにマッチした記事をお届けします 便利な情報をあとで効率的に読み返せます ダークテーマを利用できます ログインすると使える機能について 新規登録 ログイン 10 いいねしたユーザー一覧へ移動 7 more_horiz 記事を削除する close 一度削除した記事は復旧できません。 この記事の編集中の下書きも削除されます。 削除してよろしいですか? キャンセル 削除する delete

類似記事(ベクトル近傍)