浮世絵作者予測

Open Review Competition

賞金: 150,000 参加ユーザー数: 303 5年弱前に終了

TPUを使ったPyTorchモデルの作成+LBスコアの予測

はじめに

Google ColaboratoryでTPUを使ってPyTorchのモデルを作成するプログラムです。 また、検証データの推論結果とテストデータの分布から、リーダーボードの予想スコア(Estimated LB)を計算します。

Google Colaboratoryでは8個のTPUを使うことができ、1個のGPUで計算した場合より早くモデルを作成できます。 ただし、TPUはbfloat16で計算しているはずですので、GPUで計算した場合と計算結果が異なる可能性があります(googleが発表する論文には、推論はTPUで計算していても学習はGPUで計算しているものがあります)。

TPUを使いたい場合はTensorflowでモデルを作るというのが常套手段ですが、torch_xlaを使うことでPyTorchのモデルをTPUで実行できます。

torch_xlaのgithubリポジトリ
https://github.com/pytorch/xla

GPUを使ってモデルを作成する方法はこちら
https://prob.space/competitions/ukiyoe-author/discussions/takedarts-Post852f7083860909eb1acb

このモデルのLBスコア: 0.728

事前準備

以下のファイルをgoogle driveにアップロードしておきます。

  • 学習用ラベルデータ : ProbSpace/ukiyoe/ukiyoe-train-labels.npz
  • 学習用画像データ: ProbSpace/ukiyoe/ukiyoe-train-imgs.npz

セットアップ

torch_xlaとそれに対応するtorchとtorchvisionをインストールしなおします。 これらのライブラリはgoogle colaboratoryにインストールされているtensorflowのバージョンに合わせる必要があるようで、最新版を入れれば動作するというわけではありません。

OpenMPのライブラリも必要になるので、これもインストールします。

# google driveをマウント
from google.colab import drive
drive.mount('/content/drive')

# torch_xla をインストール
DIST_BUCKET="gs://tpu-pytorch/wheels"
TORCH_WHEEL="torch-1.15-cp36-cp36m-linux_x86_64.whl"
TORCH_XLA_WHEEL="torch_xla-1.15-cp36-cp36m-linux_x86_64.whl"
TORCHVISION_WHEEL="torchvision-0.3.0-cp36-cp36m-linux_x86_64.whl"

!pip uninstall -y torch torchvision
!gsutil cp "$DIST_BUCKET/$TORCH_WHEEL" .
!gsutil cp "$DIST_BUCKET/$TORCH_XLA_WHEEL" .
!gsutil cp "$DIST_BUCKET/$TORCHVISION_WHEEL" .
!pip install "$TORCH_WHEEL" "$TORCH_XLA_WHEEL" "$TORCHVISION_WHEEL"
!sudo apt-get install libomp5

ライブラリの読み込みと乱数設定

import torch
import torch.nn as nn
import torch.optim as optim
import torch.autograd as autograd
import torchvision.models as models
from torch.utils.data import Dataset, DataLoader
import torch_xla.distributed.data_parallel as dp
import torch_xla.core.xla_model as xm
from sklearn.model_selection import train_test_split
import numpy as np
import matplotlib.pyplot as plt
import albumentations
import random
import copy
import os
import csv

#  乱数設定
RANDOM_SEED = 2020
random.seed(RANDOM_SEED)
os.environ['PYTHONHASHSEED'] = str(RANDOM_SEED)
np.random.seed(RANDOM_SEED)
torch.manual_seed(RANDOM_SEED)

print(f'random seed={RANDOM_SEED}')

データの読み込み

提供されているデータのうち、80%を学習データとし、残りの20%を検証データとします。

データ拡張は正規化と横方向の反転のみとしました。

class UkiyoeDataset(Dataset):
  def __init__(self, images, labels, train=False):
    super().__init__()
    self.images = images
    self.labels = labels
    
    transforms = [albumentations.Normalize(
      mean=[0.721, 0.659, 0.560], std=[0.224, 0.207, 0.198], p=1)]
    
    if train:
      transforms.append(albumentations.HorizontalFlip(p=0.5))

    self.transform = albumentations.Compose(transforms)

  def __len__(self):
    return len(self.images)

  def __getitem__(self, idx):
    image = np.rollaxis(self.transform(image=self.images[idx])['image'], 2, 0)
    label = self.labels[idx]
    
    return image, label


# データローダの作成
train_labels = np.load(
  'drive/My Drive/ProbSpace/ukiyoe/ukiyoe-train-labels.npz')['arr_0']
train_images = np.load(
  'drive/My Drive/ProbSpace/ukiyoe/ukiyoe-train-imgs.npz')['arr_0']

train_x, valid_x, train_y, valid_y = train_test_split(
  train_images, train_labels, test_size=0.2, random_state=RANDOM_SEED)

train_loader = DataLoader(
  UkiyoeDataset(train_x, train_y, train=True),
  batch_size=64, shuffle=True)
valid_loader = DataLoader(
  UkiyoeDataset(valid_x, valid_y, train=False),
  batch_size=64, shuffle=False)

print(f'train data size: {len(train_x)}')
print(f'valid data size: {len(valid_x)}')

学習

モデルはpre-definedのResNet18にしています。

pytorchのモデルをTPUで実行するためには、学習を実行する関数(train_fun)と検証を実行する関数(valid_func)を作成し、モデルを登録したDataParallelオブジェクトにこれらの関数を渡すことで学習/検証が実行されます。

原因は分からないのですが、検証実行時にtorch.no_grad()を使うと計算時間が大幅に増えましたので、検証時も計算グラフを作るプログラムになっています。 また、CPU/TPUのデータ転送のコストも大きいようで、不用意にデータ転送を行うコードを入れるとパフォーマンスが落ちます。

class Classifier(nn.Module):
  def __init__(self, model):
    super().__init__()
    self.model = model
    self.criterion = nn.CrossEntropyLoss()
  
  def forward(self, images, labels):
    preds = self.model(images)
    loss = self.criterion(preds, labels)
    accuracy = preds.max(dim=1)[1].eq(labels).float().mean()

    return loss, accuracy


def perform(model, loader, optimizer):
  loss_total = 0
  accuracy_total = 0
  count = 0
  
  for images, labels in loader:
    loss, accuracy = model(images, labels)
   
    if optimizer is not None:
      optimizer.zero_grad()
      loss.backward()
      xm.optimizer_step(optimizer)
    
    loss_total += float(loss) * len(images)
    accuracy_total += float(accuracy) * len(images)
    count += len(images)

  return np.array(
    (loss_total / count, accuracy_total / count), dtype=np.float64)


def train_func(model, loader, device, context):
  optimizer = context.getattr_or('optimizer',
    lambda: optim.Adam(model.parameters(), lr=0.001))
  
  model.train()
  
  return perform(model, loader, optimizer)


def valid_func(model, loader, device, context):
  model.eval()
  
  return perform(model, loader, None)


# モデル作成
model_parallel = dp.DataParallel(Classifier(
    models.resnet18(pretrained=False, num_classes=10)))
print(f'tpu devices: {model_parallel.devices}')

# 学習
log = []

for epoch in range(10):
  results = model_parallel(train_func, train_loader)
  train_loss, train_accuracy = sum(results) / len(results)
  
  results = model_parallel(valid_func, valid_loader)
  valid_loss, valid_accuracy = sum(results) / len(results)
  
  print('[{}] train(loss/accuracy)={:.2f}/{:.2f}, valid(loss/accuracy)={:.2f}/{:.2f}'.format(
    epoch + 1, train_loss, train_accuracy, valid_loss, valid_accuracy))
  
  log.append((epoch + 1, train_loss, train_accuracy, valid_loss, valid_accuracy))

# モデルを保存
model_copy = copy.deepcopy(model_parallel.models[0].model).to('cpu')
torch.save(model_copy.state_dict(), 'resnet18.pth')
  
# 結果表示
figure = plt.figure(figsize=(8, 3))

axis = figure.add_subplot(1, 2, 1)
axis.plot([x[0] for x in log], [x[1] for x in log], label='train')
axis.plot([x[0] for x in log], [x[3] for x in log], label='valid')
axis.set_xlabel('epoch')
axis.set_ylabel('loss')
axis.legend()

axis = figure.add_subplot(1, 2, 2)
axis.plot([x[0] for x in log], [x[2] for x in log], label='train')
axis.plot([x[0] for x in log], [x[4] for x in log], label='valid')
axis.set_xlabel('epoch')
axis.set_ylabel('accuracy')
axis.legend()

plt.show()
tpu devices: ['xla:1', 'xla:2', 'xla:3', 'xla:4', 'xla:5', 'xla:6', 'xla:7', 'xla:8']
[1] train(loss/accuracy)=2.37/0.22, valid(loss/accuracy)=6.11/0.05
[2] train(loss/accuracy)=1.49/0.46, valid(loss/accuracy)=5.69/0.11
[3] train(loss/accuracy)=1.25/0.57, valid(loss/accuracy)=1.92/0.39
[4] train(loss/accuracy)=1.10/0.61, valid(loss/accuracy)=1.88/0.43
[5] train(loss/accuracy)=0.99/0.64, valid(loss/accuracy)=1.63/0.45
[6] train(loss/accuracy)=0.91/0.67, valid(loss/accuracy)=1.69/0.53
[7] train(loss/accuracy)=0.83/0.71, valid(loss/accuracy)=1.28/0.54
[8] train(loss/accuracy)=0.79/0.72, valid(loss/accuracy)=1.04/0.65
[9] train(loss/accuracy)=0.75/0.74, valid(loss/accuracy)=1.12/0.62
[10] train(loss/accuracy)=0.68/0.76, valid(loss/accuracy)=0.90/0.71
/usr/local/lib/python3.6/dist-packages/torch_xla_py/__init__.py:2: UserWarning: torch_xla_py has been restructured to torch_xla and it will be removed soon, please call the submodules in torch_xla directly.
  warnings.warn('torch_xla_py has been restructured to torch_xla and it will be removed soon, '

リーダーボードのスコアを予測

検証データの推論結果を解析して、このモデルがリーダーボードで獲得するであろうスコアを予測します。

テストデータに含まれる各クラスの割合を、あらかじめ調べておきました(すべて同じクラスにしたsubmissionを提出すると割合が得られます)。 テストデータに含まえるクラスiiの割合がpip_i、クラスiiの検証データの再現率がrir_iの場合、リーダーボードの予想スコアをpiri\sum p_i r_iとしています。

# モデル読み込み
model = models.resnet18(pretrained=False, num_classes=10)
model.load_state_dict(torch.load('resnet18.pth', map_location=lambda s, _: s))

# 推論
results = [[0] * 10 for _ in range(10)]

device = xm.xla_device()
model = model.to(device)
model.eval()

for images, labels in valid_loader:
  with torch.no_grad():
    preds = model(images.to(device)).max(dim=1)[1].cpu()
 
  for label, pred in zip(labels, preds):
    results[label][pred] += 1

true_pos_total = 0
false_pos_total = 0
false_neg_total = 0
fscore_total = 0
lbscore_total = 0

# 表示
test_dists = [ # テストデータに含まれる各クラスの割合
    0.181, 0.209, 0.093, 0.068, 0.113, 0.063, 0.116, 0.048, 0.058, 0.050]

print('-- predictions (L:Labels, P:Predictions)')
print('   |{}'.format('|'.join(f'P={i}' for i in range(10))))
for i in range(10):
  print('L={}|{}'.format(i, '|'.join(f'{r:3d}' for r in results[i])))

print()
print('-- scores')
print('   |count|precision|recall|f-score')
for i in range(10):
  true_pos = results[i][i]
  false_neg = sum(results[i]) - true_pos
  false_pos = sum(results[j][i] for j in range(10)) - true_pos
  precision = true_pos / (true_pos + false_pos)
  recall = true_pos / (true_pos + false_neg)
  fscore = (2 * precision * recall) / (precision + recall)

  true_pos_total += true_pos
  false_pos_total += false_pos
  false_neg_total += false_neg
  fscore_total += fscore
  lbscore_total += test_dists[i] * recall

  print('L={}|  {:3d}|   {:.4f}|{:.4f}| {:.4f}'.format(
    i, sum(results[i]), precision, recall, fscore))

print()
print('accuracy       = {:.4f}'.format(true_pos_total / len(valid_x)))
print('f-score(micro) = {:.4f}'.format(
  (2 * true_pos_total) / (2 * true_pos_total + false_pos_total + false_neg_total)))
print('f-score(macro) = {:.4f}'.format(fscore_total / 10))
print('estimated LB   = {:.4f}'.format(lbscore_total))
-- predictions (L:Labels, P:Predictions)
   |P=0|P=1|P=2|P=3|P=4|P=5|P=6|P=7|P=8|P=9
L=0|120|  4|  0|  0|  0|  4|  1|  0|  0|  0
L=1| 10| 88|  7|  3|  6|  1| 18|  0|  0|  1
L=2|  0|  0| 43|  0|  3|  2|  3|  1|  5|  0
L=3|  0|  8|  1| 18|  4|  0|  3|  5|  0|  0
L=4|  0|  4|  9|  0| 54|  0|  5|  0|  4|  0
L=5|  8|  4|  1|  0|  4| 18|  0|  0|  0|  0
L=6|  0|  0|  9|  0|  1|  0| 73|  0|  1|  0
L=7|  0|  5|  3|  3|  0|  0|  3| 16|  0|  0
L=8|  0|  4|  7|  0|  8|  1|  1|  0| 14|  0
L=9|  0|  2|  0|  0|  0|  0|  1|  0|  0| 10

-- scores
   |count|precision|recall|f-score
L=0|  129|   0.8696|0.9302| 0.8989
L=1|  134|   0.7395|0.6567| 0.6957
L=2|   57|   0.5375|0.7544| 0.6277
L=3|   39|   0.7500|0.4615| 0.5714
L=4|   76|   0.6750|0.7105| 0.6923
L=5|   35|   0.6923|0.5143| 0.5902
L=6|   84|   0.6759|0.8690| 0.7604
L=7|   30|   0.7273|0.5333| 0.6154
L=8|   35|   0.5833|0.4000| 0.4746
L=9|   13|   0.9091|0.7692| 0.8333

accuracy       = 0.7184
f-score(micro) = 0.7184
f-score(macro) = 0.6760
estimated LB   = 0.7079

提出データの作成

テストデータの推論結果から提出ファイルを作成します。

今回予想されたリーダーボードのスコアは 0.708 でしたが、 この提出ファイルを提出したときのリーダーボードのスコアは 0.728 でした。

# データ読み込み
test_images = np.load(
    'drive/My Drive/ProbSpace/ukiyoe/ukiyoe-test-imgs.npz')['arr_0']
test_labels = np.zeros((test_images.shape[0], 1), dtype=np.int64)

test_loader = DataLoader(
  UkiyoeDataset(test_images, test_labels, train=False),
  batch_size=64, shuffle=False)

# 推論
predictions = []
model.eval()

for images, _ in test_loader:
  with torch.no_grad():
    preds = model(images.to(device)).max(dim=1)[1].cpu()
  
  predictions.extend(int(x) for x in preds)

# results
classes = [0] * 10
dists = [int(round(d * len(predictions))) for d in test_dists]
error = 0

for p in predictions:
  classes[p] += 1

print("-- number of predictions")
for i, (c, d) in enumerate(zip(classes, dists)):
  error += abs(c - d)
  print(f'class-{i}: {c:3d} (actual={d})')
  
# 提出ファイル作成
with open('submission.csv', 'w') as writer:
  csv_writer = csv.writer(writer)
  csv_writer.writerow(('id', 'y'))
  csv_writer.writerows((i + 1, x) for i, x in enumerate(predictions))
-- number of predictions
class-0:  76 (actual=72)
class-1:  82 (actual=83)
class-2:  37 (actual=37)
class-3:  22 (actual=27)
class-4:  43 (actual=45)
class-5:  27 (actual=25)
class-6:  60 (actual=46)
class-7:  14 (actual=19)
class-8:  22 (actual=23)
class-9:  14 (actual=20)

添付データ

  • ukiyoe-tpu.ipynb?X-Amz-Expires=10800&X-Amz-Date=20241222T055348Z&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Credential=AKIAIP7GCBGMWPMZ42PQ
  • Icon17
    camaro

    ありがとうございます、非常に参考になりました。 敢えてClassifier Classを作成してlossとaccuracyを返すようにしたのは何か理由があるのでしょうか? 自分でトライした際にValidationでlossを上手く得ることができず困っていたのですが、何が原因かわからず・・・(torch.no_gradを使っていたのも原因でしょうか?)

    また、DataParallelを使っているとエラーが出た際に毎回カーネルが落ちてしまうのですが、そういうものでしょうか? 上手いデバグのやり方があれば教えていただけると助かりますm(__)m

    Icon17
    camaro

       

    Icon17
    camaro

       

    Aws4 request&x amz signedheaders=host&x amz signature=9318c39f9ccbe4947251299980e87b6f6c2ec120b55ed7b65ef6be1d42c53119
    takedarts

    > camaroさん
    Classifierクラスは作らなくても問題ありません。関数perform内の処理を以下のコードに変更しても問題なく実行できました。

        #loss, accuracy = model(images, labels)
        preds = model.model(images)
        loss = nn.functional.cross_entropy(preds, labels)
        accuracy = preds.max(dim=1)[1].eq(labels).float().mean()

    TPU/CPUの同期処理に不安定なところがあるようで、torch.no_gradなどの特定の処理を挟むと実行できない(デッドロックが起こっている?)場合があります。あと、ランタイムの初期化だけではTPU側が初期化されないため、セッションの初期化が必要になる点もハマりポイントかもしれません。

    DataParallel内の処理が落ちるとランタイムごと落ちる件についてですが、私はGPU版でデバッグをして、それをTPU版に貼り付ける方法で開発していました。現状では、これぐらいしか方法が無いように思います。

    Favicon
    new user
    コメントするには 新規登録 もしくは ログイン が必要です。