Global Trend Radar
Web: en.wikipedia.org US web_search 2026-05-06 07:02

生成的事前学習変換器

原題: Generative pre-trained transformer - Wikipedia

元記事を開く →

分析結果

カテゴリ
AI
重要度
68
トレンドスコア
36
要約
生成的事前学習変換器(GPT)は、大規模言語モデル(LLM)の一種で、生成的人工知能チャットボットで広く使用されています。GPTは深層学習に基づいており、自然言語処理の分野で重要な役割を果たしています。
キーワード
Original GPT model A generative pre-trained transformer (GPT) is a type of large language model (LLM) [1][2][3] that is widely used in generative artificial intelligence chatbots. [4][5] GPTs are based on a deep learning architecture called the transformer. They are pre-trained on large datasets of unlabeled content, and able to generate novel content. [2][3] OpenAI was the first to apply ...

類似記事(ベクトル近傍)