top of page
実践的 NLP
実践的 自然言語処理 講座
最先端の自然言語処理技術を
多岐にわたる実践タスクへの適応を習得する
自然言語処理(NLP)は、テキストデータを理解・処理するための技術で、機械翻訳や文章分類など多岐にわたるタスクに活用されます。
本講座では、NLPのみならず様々な分野でブレイクスルーを牽引しているTransformerのEncoder構造を用いたBERTやDecoder構造のGPT、Encoder・Decoder構造のT5をはじめとするNLPモデルの基礎と、実際にwrimeやJSQuADなどのデータセットを使って文章分類や読解問題、要約などのタスクに取り組みます。これらのモデル構造や学習手法を理解し、実際のタスクに落とし込むことで、実践的なNLPモデルの構築が可能となります。
Overview
実践的 自然言語処理 講座
活用事例
テキストデータの有効活用・高度な情報検索、抽出、自動化
膨大なテキストデータから意味や傾向を解析し、特定の情報の正確な抽出や類似データの検索を自動化することが可能になります。
例1)顧客満足度向上のために「不満の声」を自動抽出し分析。
例2)チャットボットによる問い合わせ対応の自動化。
例3)ユーザーに最適な商品を提案する推薦システム。
講座概要
多岐にわたるNLPタスクに対応
TransformerのEncoder( BERT )、Decoder( GPT )、Encoder・Decoder( T5 )をはじめとするNLPモデルの基礎を学び、wrimeやJSQuADなどのデータセットを使って分類、読解、要約などのタスクに取り組みます。
カテゴリ | エンジニアリング力 |
講座名 | 実践的 NLP 講座 |
講座時間 | 1日6時間 |
備考備考 | DL4US講座のオプションとしておすすめ |
プログラミングスキル | Pythonを実務で利用したことがある(研究、データ分析、システム開発、Web開発など) |
数学 | 大学レベルの基礎数学 / 線形代数 / 確率 |
Curriculum
実践的 自然言語処理 講座
Step 01:BERTとは
詳細:
従来の自然言語処理
変成器
事前学習
微調整
Step 02:BERTファミリーの紹介
詳細:
ロベルタ
蒸留BERT
GPT
T5
Step 03:文章分類
詳細:wrimeのセンチメントラベルを使った極性分類のFine-tuning
Step 04:選択肢問題
詳細:AI王公式配布データセ ット 第1回コンペティション 学習用データの微調整
Step 05:読解問題
詳細:JSQuADの微調整
Step 06:要約
詳細:BillSumの微調整
Step 07:文書検索
詳細:AmebaFAQサーチの微調整
Step 08:予測結果の判断根拠の可視化
詳細:
LIMEによる判断根拠の平和化
gradioによるWebUIの作成
ハンズオン内容
BERT
wrime
line-distilbert-base-japanese
JSQuAD
BillSum
AmebaFAQSearch
LIME
Gradio
bottom of page

.png)


