謝辞
今回この研究・学習を行うにあたり、
倉光先生、並びに倉光研究室の先輩方から温かいご指導ご鞭撻を賜りました。
無事にこのように発表できるようになりましたのは、ひとえに先生と先輩方のおかげです。
この場を借りて深く御礼申し上げます。
参考文献
NRI."大規模言語モデル"
https://www.nri.com/jp/knowledge/glossary/lst/ta/llm (閲覧日:2023/10/5)
NRI."ディープラーニング(深層学習)"
https://www.nri.com/jp/knowledge/glossary/lst/ta/deep_learning (閲覧日:2023/10/5)
SoftBank."大規模言語モデル(LLM)"
https://www.softbank.jp/biz/solutions/generative-ai/ai-glossary/llm/ (閲覧日:2023/10/5)
クリスタルメソッド株式会社."BERTとは?学習方法、仕組みをわかりやすく解説"
https://crystal-method.com/topics/bert/ (閲覧日:2023/10/5)
NVIDIA."NVIDIA V100"
https://www.nvidia.com/ja-jp/data-center/v100/ (閲覧日2023/10/5)
Yahoo!JAPAN Tech Blog."日本語言語理解ベンチマークJGLUEの構築 〜 自然言語処理モデルの評価用データセットを公開しました".2022/12/20
https://techblog.yahoo.co.jp/entry/2022122030379907/ (閲覧日2023/10/5)