こんにちは、Google Cloud Next'23に参加しているSUPINFのitoです。
オフラインでの開催は2019年以来で、場所はSanFrancisco、Moscone Centerで行われてます。
今回、現地に行ったからこそ体験できるWorkshopに参加してみたので、参加した際の様子をレポートしていきたいと思います。
Workshopの参加方法
事前に参加予約を済ませておくと、prereservedの列から優先的に入れます。ただし、時間は厳守なので注意が必要です。
人気のあるworkshopは、事前予約開始後すぐ満席となってました。もし予約ができなかった場合でも、当日枠が確保されていて、セッション開始前に列に並ぶことで参加することができます。
Workshop参加時の様子
縦置きのディスプレイまで設置してくれており、チュートリアルの画面を展開するととても便利でした。
チュートリアルを開始するには、事前にカンファレンスに登録しているメールアドレスとパスワードでログインする必要があります。カンファレンス側が用意したPCのためパスワードが長い場合は入力するのが大変で、隣の方も苦戦してました。一時的にパスワードを短くしておくのもありかもしれません。
また、ネットワークに繋がってないPCもあり、その場合は会場のWi-Fiを設定して使いました。
参加したWorkshopの内容
"Practical Introduction to Large Language Models"というWorkshopに参加しました。Language Modelの歴史から説明が始まり、後半で実際に手を動かして、Language modelをチューニングするチュートリアルを進めていきます。
Language Modelの歴史
この中で重要になってくるLanguage Modelは、やはりtransformerであり、青く強調されているattention mechanismにより、GPU/TPUフレンドリーで大量のデータを同時に効率良く並列計算することができるようになりました。
[参考] Transformerが提案された論文(2017): Attention is All You Need
チュートリアルの流れ
チュートリアルの簡単な流れは下記の通りでした。
- Vertex AI Notebooksを起動
- JupyterLabを開く
- こちらのipynbファイルに沿って、進める
Workshopのすすめ
現地で実際に手を動かして学ぶWorkshopは、隣の方と助け合いつつチュートリアルを進めれるので、いつもと違った刺激で楽しく学ぶことができます!!
来年のGoogle Cloud Nextは、4月、ラスベガスでの開催となります。 また機会があればぜひ参加したいです。