GPT2/README.md

45 lines
1.2 KiB
Markdown
Raw Normal View History

2024-07-18 13:38:25 +00:00
# GPT2
原作者Andrej Karpathy @ https://github.com/karpathy/llm.c
## 背景
GPT 很酷,能不能在我自己的电脑上跑一个呢?当然可以!
![](show.gif)
现在给你提供 GPT2 的预训练模型:[点击这里](https://alist.yaossg.com/share/model/gpt2_124M.bin),请把该模型放在本仓库代码的同目录下,按照下面的指示即可运行该程序。
## 依赖
需要安装 GCC 和 Python3 以及下面的 Python 包
```bash
pip3 install tiktoken
```
## 编译
```bash
bash build.sh
```
## 运行
```bash
python3 chat.py
```
## 目标
你可能已经发现了,你的程序可能并没有我演示的跑的那么快(~~神机请忽略~~)。
你的目标就是优化该程序的性能,在保证结果不变的情况下更快的完成文本的补全。
我会使用一些测试点来评测你的程序的正确性和执行时间。期待更高的效率和更多样的优化方案。
此外,请在 wp 中回答下面的问题:
- 什么是阿姆达尔定律?根据阿姆达尔定律,我们应该把优化的重点放在哪里?
- 你的优化方案和思路是什么?优化的效果受到哪些因素影响?