遅れに遅れたが、GPT-3も読みました。GPT-2との違いは、圧倒的なスケールアップだけなんですが、それが(タスクによっては)きれいに性能向上につながっており。
ただ、スケールアップしすぎて、もう誰も再実験できなさそうなBig Scienceの世界になっている。API叩くくらいしかできなそう。
あと、知的にワクワクする感じはなかった。GPT-2と仕組みは一緒ですからね・・・
次はChatGPTでもキモとなるRLHF論文。こっちのほうが楽しみ
遅れに遅れたが、GPT-3も読みました。GPT-2との違いは、圧倒的なスケールアップだけなんですが、それが(タスクによっては)きれいに性能向上につながっており。
ただ、スケールアップしすぎて、もう誰も再実験できなさそうなBig Scienceの世界になっている。API叩くくらいしかできなそう。
あと、知的にワクワクする感じはなかった。GPT-2と仕組みは一緒ですからね・・・
次はChatGPTでもキモとなるRLHF論文。こっちのほうが楽しみ