生成的事前学習変換器
原題: Generative pre-trained transformer - Wikipedia
分析結果
- カテゴリ
- AI
- 重要度
- 68
- トレンドスコア
- 36
- 要約
- 生成的事前学習変換器(GPT)は、大規模言語モデル(LLM)の一種で、生成的人工知能チャットボットで広く使用されています。GPTは深層学習に基づいており、自然言語処理の分野で重要な役割を果たしています。
- キーワード
Original GPT model A generative pre-trained transformer (GPT) is a type of large language model (LLM) [1][2][3] that is widely used in generative artificial intelligence chatbots. [4][5] GPTs are based on a deep learning architecture called the transformer. They are pre-trained on large datasets of unlabeled content, and able to generate novel content. [2][3] OpenAI was the first to apply ...