GPTを自作して大規模言語モデルを理解する:PythonでTransformerとAttentionを学ぶLLM機械学習

GPT1の部品を作りながらPyTorchでGPT本体を自作します。LLMがどのように作用しているのか本体を自作してコードレベルで見ていきます。レクチャーの内容に応じてニューラルネットワークについても触れていきます。
4.47 (129 reviews)
Udemy
platform
日本語
language
Data Science
category
instructor
GPTを自作して大規模言語モデルを理解する:PythonでTransformerとAttentionを学ぶLLM機械学習
1 814
students
7.5 hours
content
Apr 2025
last update
$13.99
regular price

What you will learn

TransformerのAttentionメカニズムとGPTの仕組みを学びます。

自然言語処理の流れを学びます。

Python言語を学びながらGPTのプログラムを作ります。

機械学習フレームワーク、PyTorchを教材として学びます。

Screenshots

GPTを自作して大規模言語モデルを理解する:PythonでTransformerとAttentionを学ぶLLM機械学習 - Screenshot_01GPTを自作して大規模言語モデルを理解する:PythonでTransformerとAttentionを学ぶLLM機械学習 - Screenshot_02GPTを自作して大規模言語モデルを理解する:PythonでTransformerとAttentionを学ぶLLM機械学習 - Screenshot_03GPTを自作して大規模言語モデルを理解する:PythonでTransformerとAttentionを学ぶLLM機械学習 - Screenshot_04
5712260
udemy ID
14/12/2023
course created date
24/04/2024
course indexed date
Bot
course submited by