2024-06-20 機械学習勉強会
今週のTOPIC[論文, slide] 大規模言語モデルを用いたゼロショットテキスト分類によるTCFD推奨開示項目の自動判定[blog] 明日使えるかもしれないLoss Functionsのアイディアと実装[service] unriddle: Read research papers faster[slide] 日本語Vision-Languageモデルの学習と評価ベンチマークの構築[論文] SelfDocSeg: A Self-Supervised vision-based Approach towards Document Segmentation(ICDAR 2023)[blog] Evaluation Measures in Information Retrieval[書籍] Lean Analytics[blog] LLMOps に取り組み始めた話メインTOPICDocFormerv2: Local Features for Document Understanding (AAAI2023)概要関連研究提案手法モデル事前学習実験データセットTabel VQADocument VQASequence Labeling TaskEntity Extraction TaskGeneralization Experiments - Scene-Text VQAその他検証: OCRエラーに対するロバスト性感想
今週のTOPIC
@Naoto Shimakoshi
[論文, slide] 大規模言語モデルを用いたゼロショットテキスト分類によるTCFD推奨開示項目の自動判定
- 気候関連財務情報開示タスクフォース (TCFD)という気候変動に関する11の推奨開 示項目を設定し、気候関連の推奨項目を開示しているかの規範となるものがある。
- これが本当に開示されているかは大量の資料を分析する必要があり、大きな負担。→ LLMで自動分類
- TCFD推奨開示項目の11項目が開示されているかの判断基準を決めるために27項目のTCFD推奨開示項目クライテリアを作成
- githubにて使用しているクライテリアだけ公開されてる:https://github.com/cierpa/tcfd_criteria
- 実験の流れ
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/aba8845f-1de8-416b-a9b0-35c0ac7dc9d1/c8ad19da7ef1b830aedd42dafb706a29.png)
- GPT-3.5とGPT-4の双方でクライテリアごとの分類精度を評価
具体的なクライテリアはTCFD推奨開示項目から以下のように作成
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/57bf353e-3ee2-4980-b220-38866587f791/da597612f1c086697bfc541c6f92e6e8.png)
プロンプト例
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/e5a781cc-f985-4de9-9d58-f374f6e73c21/93f767f021a58407c4acee44c2cbaccb.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/0008c74a-ab18-407f-a20e-7d6a6fce9a70/716057cd59caae31402954a4ddece82d.png)
- 更に、東京証券取引所の上場会社の有価証券報告書に含まれるサステナビリティ情報におけるTCFD推奨開示項目の充足状況も調査
- [shima]最終的に、クライテリアではなく最初のTCFD推奨開示項目が充足されているかは、一個でもクライテリアが書かれていたらOKとするんだろうか。
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/b9f51ff8-0715-4360-8c77-6547029150cb/76ab49c928f466092bd3a815404f91b5.png)
@Yuya Matsumura
[blog] 明日使えるかもしれないLoss Functionsのアイディアと実装
- いくつかの特徴的なLossについてお気持ちと実装を解説。
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/39275ee9-20d5-4a78-9ecd-5c9f776b03b9/e2ca2597e8977ba8031030cdafbd40d4.png)
- Aleatoric Uncertainty Loss が面白かった。
- 内在的不確実性を学習することで、間違っても仕方がないサンプルをうまく扱う。
- 誤差が大きくとも、不確実性(分散)が大きいならばLossが小さくなる。
- 誤差が小さい(予測が正しい)際は、ロスを小さくするために不確実性が小さくなるように学習される。
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/f7a9ecf3-0647-48b8-9ea2-87fbf43b1ee5/2546972de8ad8a81763d7d16fa84cee7.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/6d7f9027-f4f1-49a3-8ac0-9cca55b80662/f396e6a0dd050b6a55348faba94b42ea.png)
@Tomoaki Kitaoka
[service] unriddle: Read research papers faster
- 論文など、PDF形式のファイルを読んで、書き物をするのを効率化してくれるサービス
- なんたってYcon採択スタートアップ
- できること
- 対話形式で論文の内容を質問できる
- ファイルと対話は1:1で対話の出力では参照されたページ番号を教えてくれる
- 同じ画面でメモを取れる
- メモはファイルに対してN:Nの関係になっていて、メモの特定の箇所はどのファイルを参照しているかなども表現できる
- メモとファイルを横断して検索
- 特定のメモに類似するメモのサジェスト
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/29bcb719-9b8f-494f-ad27-dc249dc50f97/08eef94e2e8bda4655ee0787d38eff69.png)
[slide] 日本語Vision-Languageモデルの学習と評価ベンチマークの構築
- こちらのイベントの資料
‣
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/5611131d-e067-4eb5-82f8-93c0b71a32c3/3dd99818240478872747739b21bcb14b.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/f98e0464-e660-45f6-a3c1-e8ebcd7d2f65/366647eda2edc5f821b780c50891cd8b.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/8eef7d69-9085-4643-a250-4605d030897d/1254b2847a1a71640a52ae6b27ed92ef.png)
@Yuta Kamikawa
[論文] SelfDocSeg: A Self-Supervised vision-based Approach towards Document Segmentation(ICDAR 2023)
SelfDocSeg
MaitySubhajit • Updated Jun 20, 2024
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/e42b278c-bad6-40b1-b058-d1afdbe9593e/544b5ba5c09f3409b9a4eb40b5f0b7f5.png)
概要
- 物体検出ベースやinstance segmentationのDocument Layout Analysisのための、自己教示学習手法
- 自己教示学習なので、ドキュメントの画像さえあればよく、アノテーションが不要
- 提案手法によって、1つのドキュメント画像から複数のオブジェクト表現を同時に学習し、データ効率の良い事前学習が可能となった
実験
- 自己教示学習で事前学習済みのモデルを使って、4つのデータセットでファインチューニングし、その精度で評価
- 提案手法はドキュメント画像しか使っていないが、事前学習にテキストやレイアウト情報を使うLayoutLMv3、UDocなどと同等の性能
- 教師あり学習の手法とも遜色ない精度で、小規模データセットではDocSegTrなどのTransformerベース手法より優れた性能
- 事前学習データ数を8100に制限しても、他の手法が使用するデータ数の100万〜4200万に匹敵する性能
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/349adb4c-41d1-4dd4-be7d-bc68a2d3ba32/ec228ca8b401eabc9c31a5949b6f87e4.png)
@Shun Ito
[blog] Evaluation Measures in Information Retrieval
- Information Retrievalに関する指標のまとめ・解説記事 by pinecone
- 紹介されている指標はメジャーなもので、具体的な図・サンプル実装とともに、ProsとCons含めてわかりやすく解説されている
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/742785e3-e952-4335-a911-71f282b1f6be/e0eedb6dcf496cdc43341c05965d14c1.png)
@Ryosuke Fukazawa / qluto
[書籍] Lean Analytics
古典ですが、プロダクトに組み込まれた機械学習システムの指標定義に対しても依然有用なので取り上げてみました。
今回は指標のベーシックな部分について触れている2章をピックアップ。
優れた指標は、期待する変化を促す数値であり、以下のような特徴があります。
- 比較ができる
- 優れた指標は、時間軸、ユーザーグループ、競合他社などと比較が可能です。これにより、自分がどの方向に進んでいるかを理解できます。例えば、コンバージョン率は単なる数値ではなく、過去のデータと比較して意味が出てきます。
- わかりやすい
- 指標が覚えにくかったり、議論が困難だったりすると、数値の変化を文化に取り入れるのが難しくなります。シンプルで直感的な指標が好まれます。
- 比率や割合である
- 比率や割合は行動しやすく、比較もしやすいです。例えば、売上や利益だけでなく、それを元にしたROI(投資利益率)やコンバージョン率などの比率が重要です。比率は状況を直感的に理解しやすく、対策を立てやすくします。
- 行動を変える
- 優れた指標は行動を変えます。指標の変化に基づいて、従来とは異なる行動を取ることができることが最も重要です。
- 対になったメトリクス
- 多くの指標は「対」になって登場し、バランスを保つために両方を見る必要があります。例えば、コンバージョン率と購入時間、バイラル係数とバイラルサイクルタイムなどです。
優れた指標がどんなものなのかはわかったとして、実際にどのように指標設計を行えば良いのでしょうか?
書籍では下記の考え方が示されています。
- 定性的指標と定量的指標
- 定量的指標は数値や統計で「何が」「どれだけ」を明確にし、追跡や計測が容易で科学的です。一方、定性的指標はインタビューや議論などで「なぜ」に答え、感情や主観を含むため、定量化が難しいですが、ビジネスの課題や顧客のニーズを深く理解するのに重要です。最初に定性的データを収集し、潜在顧客のインサイトを得ることで、定量的データと組み合わせたより深い分析が可能になります。
- 虚栄の指標と行動につながる指標
- 虚栄の指標は、自己満足のためのデータであり、行動を変えません。例として、合計登録数や合計アクティブユーザー数が挙げられます。これらは増加してもビジネスの本質的な改善にはつながりません。一方、本物の指標は、行動を変えるデータであり、ユーザーのエンゲージメントを示す「アクティブユーザー率」や「一定期間に獲得したユーザー数」などです。これらは製品やマーケティング手法の効果を評価し、改善を促進するために重要です。
- 探索指標と報告指標
- 探索指標と報告指標は、用途と目的が異なります。報告指標は、既知の未知に対する指標であり、日常業務や既存のプロセスを把握するために使われます。例えば、売上やユーザー数など、具体的なデータを追跡します。一方、探索指標は未知の未知を発見するためのもので、新しい市場やユーザーセグメントを見つけるために役立ちます。スタートアップにおいては、拡大可能で反復可能なビジネスモデルを探求するために、探索指標が特に重要です。
![言葉遊び的な感じでパッと受け止めづらいかもだが、既知の未知とは「知らないことを知っている」こと](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/f8fdd145-d257-4d9b-9dc7-917959a5827f/313d982e91391131ba4e15868a3a9b04.png)
- 先行指標と遅行指標
- 先行指標と遅行指標は目的が異なります。先行指標は未来を予測し、将来の行動を導くために使います。例えば、営業ファンネルの見込み客の数から新規顧客の数を予測することができます。一方、遅行指標は過去の出来事を示し、問題が発生したことを確認するために使います。例えば、チャーンレート(顧客離脱率)は遅行指標です。スタートアップの初期段階では、遅行指標を使って現状の把握を行い、次第に先行指標を活用して未来を予測し、行動を最適化します。
- 相関指標と因果指標
- 相関指標は、2つのデータが同時に変動することを示しますが、因果関係を意味しません。単なる相関関係に基づいた意思決定は誤りを招く可能性があります。例えば、アイスクリームの消費量と溺死の件数には相関関係がありますが、因果関係はありません。一方、因果指標は、一方の変数が他方の変数に影響を与えることを示します。因果関係を見つけることで、効果的な対策を講じることができます。正しい意思決定には、相関関係ではなく、因果関係の特定が重要です。
そのほか、
- スタートアップにおいてはムービングターゲット(移動目標、軌道修正を図りながら変化する目標)を追いかけることの大事さ
- 施策の評価を行う際にはセグメント・コホート・A/Bテスト・多変量解析を駆使すること
が案内されています。
@Yosuke Yoshida
[blog] LLMOps に取り組み始めた話
課題
- 研究開発部と共同で開発を行っているが、検証用データが共有しやすく、かつ実行可能な状態になっていない
- どの検証用データに対して、どのモデルを使用してどのような結果が出たか管理されていない
- 検証する際の評価指標などが一元管理できていない。また、良しあしが曖昧なことが多いために手動での評価を行っている部分があるために自動で評価できない
1. 検証用データの準備(Datasets)
- InputとExpected Outputをセットで定義して格納します。それぞれ構造化データとして登録できます。
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/0956190d-5adf-4825-a0ac-e51c6ae29843/e8361fb096275838452e3a035e9884c5.png)
2. 実行の作成(Traces)
- 作成したDatasets をLLMに通した結果をLangfuseに格納してみます。主にTrace - Span - Generationの概念があり、次のコードのような処理で作成が行えます。画面では、それぞれでかかった時間、コスト、アウトプットなどを確認できます。
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/cc41aff5-ede1-470a-9765-b722e81dbe34/3cc7e49da07987397861ce1f55600bb2.png)
3.評価の管理(Datasets - Score)
- 最後に、Spanの評価と対応するDatasetとのひも付けです。どのデータセット、モデル、処理でどんな結果だったのかをひも付けて管理するために、それぞれのデータをつなげます。
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/21d35f14-b509-4dd2-923c-21605009d996/fa9b59b98c93c02b69d256bb63209eae.png)
メインTOPIC
DocFormerv2: Local Features for Document Understanding (AAAI2023)
概要
- Visual Document Understanding
- OCRの文字認識結果を一列にして言語モデルに入力するのはレイアウト情報を使えない
- 提案内容
- 画像情報、テキスト情報、位置情報を合わせたモデル
- 事前学習タスク(encoder2種, decoder1種)
関連研究
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/99deb326-36de-4421-a235-de3e7949662e/d4c0f1b0c5590b4abbbf5e9457f2816b.png)
- 既存研究はencoderのみに注目した手法が多い
- 提案手法はencoder, decoderに注目。TILTも同様だが、encoderとdecoder合わせて1つのタスクで事前学習している
提案手法
![既存手法との構成の比較](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/c39f964e-6539-41ac-9b73-45dd6976b9ea/81cb7c23ca370e11f71cf01d516f7b54.png)
![提案モデル全体](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/a6c14528-bd33-4802-acde-ab4741eb460a/e8b450b39da8a00a68ed3a01bae135a5.png)
モデル
- 入力: image, text(文字列+bbox)
- Visual Features
- vision modelが他と比べて軽量: 2x2 conv → linear
- 空白の何も情報がない領域を弾くくらいの役割
- SwinやViTを使うよりも良かった
- この結果にさらにpositional encodingを加える
- Text Features
- トークナイズしてから配列長sに揃えてembedding
- Spatial Features
- bbox ()情報をembedding
- Other Features
- v, tそれぞれのfeatureに加えられる、multi-modalに関する情報
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/a507c70d-3f5d-4104-afb7-3c50133b6c48/48b41c5ce6233734c2e8b7d87c335eba.png)
事前学習
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/95ab30dc-3393-4813-a5a8-65b1c6394101/c9e62102ecb99cf8d0634a8e0cfafca3.png)
- encoder: token-to-line
- 局所的な特徴の意味アラインメントが重要
- ランダムに2つのトークンを選び、行数で何行離れているかを予測させる
- 2行以上は2にする
- 縦に並んでいるレイアウトは考慮されてなさそう
- encoder: token-to-grid
- 会社名は一番上に書かれていることが多い、といった傾向を掴む
- 文書をグリッドに分割し、各トークンのグリッド番号を予測する
- decoder: MLM
- textの入力トークンは、文字情報・位置情報ともにランダムにマスクされる
- マスクされたトークンを予測する
- final loss
- ↑3つの重み付き和(重みはempirically determined)
実験
データセット
- 事前学習: Industrial Document Library (IDL) データセットで事前学習。OCRをかけた6400万データ
- 個別タスクごとにfine-tuningデータセットを用意
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/8e2c1466-978b-4ce9-839a-995f9f65e6e4/a034b140250ecc0d23273b32de7979e9.png)
Tabel VQA
- 表に書かれた内容を元に、文章が正しいかどうかを予測する
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/4c4bc774-31b9-4229-8cf3-ec01480b324c/19677dbb410d1302571ec7684ce77107.png)
Document VQA
- Documentの情報を元に質問への回答を生成する
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/670b0606-0928-4f15-96d4-447c7227be71/5d08b62f1610b86059c45159a2b5fcaf.png)
Sequence Labeling Task
- question, answer, header, otherの4ラベルをトークンに付与
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/3d944ca1-f476-45a8-b723-9f4f2561250b/5c5f3db162640e02bea8eb9fb4d1823d.png)
Entity Extraction Task
- 特定のクラスに関する値を抽出
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/0da9f833-fa6a-423f-96ba-6a0bcd2fd6a2/483e9bc6812824525c77c151bad2b91f.png)
Generalization Experiments - Scene-Text VQA
- 写真に関する質問に対して回答を生成する
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/586be0d6-755a-4568-82c4-bf1c2965f604/6b1112068d4fc97d59b9a910f3490e7a.png)
その他検証: OCRエラーに対するロバスト性
- Sequence Labeling Taskで検証
- OCR読み取り結果をランダムに置き換えて人工的にエラーを発生させて実験
- LayoutLMv2と比べて読み取りエラーに対してロバスト
- デコーダがあることが効いているらしい(周辺情報をうまく使えている?)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/8a67cbdf-0c77-47f6-b2b3-3f7219bca13d/a8fa5ceaeae39db1d27d889d13545857.png)
感想
- 画像の埋め込みがシンプルだが精度が高くなっているらしく意外
- 同じ列にkey, valueのペアが存在しているような書類は苦手そう?