|
# NDLOCR用レイアウト認識モジュール |
|
|
|
レイアウト要素を抽出するためのモジュールのリポジトリです。 |
|
|
|
本プログラムは、国立国会図書館が株式会社モルフォAIソリューションズに委託して作成したものです。 |
|
|
|
本プログラムは、国立国会図書館がCC BY 4.0ライセンスで公開するものです。詳細については |
|
[LICENSE](./LICENSE |
|
)をご覧ください。 |
|
|
|
# 環境構築 |
|
|
|
python3.7かつ、cuda 11.1をインストール済みの環境の場合 |
|
ndl_layoutディレクトリ直下で以下のコマンドを実行する。 |
|
``` |
|
pip install torch==1.8.1+cu111 torchvision==0.9.1+cu111 -f https://download.pytorch.org/whl/lts/1.8/torch_lts.html |
|
wget https://lab.ndl.go.jp/dataset/ndlocr/ndl_layout/ndl_layout_config.py -P ./models |
|
wget https://lab.ndl.go.jp/dataset/ndlocr/ndl_layout/epoch_140_all_eql_bt.pth -P ./models |
|
``` |
|
|
|
くわえて、元リポジトリ(https://github.com/open-mmlab/mmdetection) |
|
をカスタマイズした[mmdetection](https://github.com/ndl-lab/mmdetection) |
|
に依存しているため、下記のようにリポジトリの追加とインストールを行う。 |
|
|
|
```bash |
|
git clone https://github.com/ndl-lab/mmdetection |
|
cd mmdetection |
|
python setup.py bdist_wheel |
|
pip install dist/*.whl |
|
``` |
|
|
|
|
|
# 使い方 |
|
※スクリプトファイルはndl_layoutディレクトリ直下で実行すること |
|
|
|
## tools/process.py : 推論用モジュール + CLI |
|
|
|
学習結果を使って推論を実行する。学習済みのモデルは`ndl_layout/models` 以下にあるものとする。 |
|
|
|
画像リストを引数で指定するには img_paths オプションを、画像リストをファイルから読み込む場合には list_path オプションを指定する。 |
|
|
|
output_path で出力 XML ファイルの格納先を変更することができる。(デフォルトは layout_prediction.xml) |
|
|
|
use_show オプションを追加すると処理結果をGUI上で確認することができる。 |
|
|
|
img_pathsオプションで画像リストを指定する例 |
|
```bash |
|
python -m tools.process --img_paths image/dir/path/*.jpg --use_show --output_path layout_prediction.xml --config ./models/ndl_layout_config.py --checkpoint ./models/epoch_140_all_eql_bt.pth |
|
``` |
|
|
|
list_path オプションで画像リストを指定する例 |
|
```bash |
|
python -m tools.process --list_path image_list_file.list --use_show --output_path layout_prediction.xml --config ./models/ndl_layout_config.py --checkpoint ./models/epoch_140_all_eql_bt.pth |
|
``` |
|
|
|
## tools/preprocess.py : 学習画像の追加&変換 |
|
|
|
画像のファイル名の変換、縮小を行い、MS COCO 形式に整形。 |
|
|
|
```bash |
|
python -m tools.preprocess images_data_dir output_dir --use_link |
|
``` |
|
|
|
出力解像度を下げる必要がない場合には、`--use_link`オプションを指定する。 |
|
|
|
高解像の場合など、解像度を下げたい場合には `--use_shrink` を使うと画像サイズとアノテーションを半分のサイズに縮小して出力する。 |
|
|
|
本リポジトリの追加学習に使用可能なファイル(アノテーション情報の含まれるjson及び、前処理後の画像)は `output_dir` で指定したディレクトリに出力される。 |
|
|
|
|
|
## 学習時の手順 |
|
1) ndl_layout/tools/preprocess.pyを使用し、NDLOCRXMLDataset形式の画像とアノテーションファイル(xml)をCOCO形式に変換し保存する。 |
|
``` |
|
cd mmdetection |
|
python -m tools.preprocess images_data_dir output_dir --use_link |
|
``` |
|
output_dir内に画像のシンボリックリンク(またはコピー)とCOCO形式のアノテーションファイル(.json)を保存する。 |
|
|
|
アノテーションファイルは、data.json(全データのアノテーション)、train.json(ランダムに全体の9割)、test.json(train以外の残る1割)を生成する。 |
|
|
|
2) mmdetection/tools/train_ndl.py を使用し、モデルを学習する。 |
|
``` |
|
cd mmdetection |
|
python tools/train_ndl.py configs/ndl/cascade_rcnn_r50_fpn_1x_ndl_1024_eql.py |
|
``` |
|
学習データ、work directory、初期値、学習回数等はconfigファイル内で指定するか、train_ndl.pyのオプションを使用する。オプションで指定されたものが優先される。 |
|
|
|
work directoryに、学習したモデル(epoch_XX.pth または latest.pth)とconfigファイル(train_ndl.pyのオプションを使用した場合その内容も反映)、学習時のログファイル(.logと.log.json)が保存される。 |
|
|
|
なお、このリポジトリで公開しているモデル(設定ファイルは`configs/ndl/cascade_rcnn_r50_fpn_1x_ndl_1024_eql.py`を参照)の学習時の初期重みには |
|
https://download.openmmlab.com/mmdetection/v2.0/cascade_rcnn/cascade_rcnn_r50_fpn_1x_coco/cascade_rcnn_r50_fpn_1x_coco_20200316-3dc56deb.pth |
|
を使用した。 |
|
|