BasicSR: различия между версиями

Материал из wolfram
Перейти к навигации Перейти к поиску
Строка 249: Строка 249:
Для этого применяется скрипт, находящийся в папке с проектом.
Для этого применяется скрипт, находящийся в папке с проектом.


'''extract_subimgs_single.py'''
На данный момент все по дурацкому, хорошо работает только скрипт из активной ветки.
  cd ./BasicSR_old/codes/scripts
  BasicSR/scripts/extract_subimages.py
в нем нужно указать пути
<br /><syntaxhighlight lang="python">
...
opt = {}
    opt['n_thread'] = 20
    opt['compression_level'] = 3


отредактируем его<syntaxhighlight lang="python">
    # HR images
    opt['input_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR/'
    opt['save_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR_sub/'
    opt['crop_size'] = 480
    opt['step'] = 240
    opt['thresh_size'] = 0
    extract_subimages(opt)
 
    # LRx2 images
    #opt['input_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X2'
    #opt['save_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X2_sub'
    #opt['crop_size'] = 240
    #opt['step'] = 120
    #opt['thresh_size'] = 0
    #extract_subimages(opt)
 
    # LRx3 images
    #opt['input_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X3'
    #opt['save_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X3_sub'
    #opt['crop_size'] = 160
    #opt['step'] = 80
    #opt['thresh_size'] = 0
    #extract_subimages(opt)
 
    # LRx4 images
    opt['input_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR4/'
    opt['save_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR4_sub/'
    opt['crop_size'] = 120
    opt['step'] = 60
    opt['thresh_size'] = 0
    extract_subimages(opt)
...
...
"""A multi-thread tool to crop sub imags."""
</syntaxhighlight>
     input_folder = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR/'
python ./scripts/extract_subimages.py
     save_folder = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR_sub/'
В итоге из 855 файлов получилось 34 832 файла.
     n_thread = 20
 
     crop_sz = 480
Столько же должно получиться с уменьшенным разрешением.
     step = 240
 
     thres_sz = 48
 
     compression_level = 3  # 3 is the default value in cv2
На данном этапе можно закончить работу над этим.
     # CV_IMWRITE_PNG_COMPRESSION from 0 to 9. A higher value means a smaller size and longer
 
     # compression time. If read raw images during training, use 0 for faster IO speed.
 
...
Приступаем к обучению
</syntaxhighlight>Запустим скрипт после редактирования
 
python extract_subimgs_single.py
из папки с BasicSR_old
Начинается процесс разделения изображений
 
ищем в папке '''codes/options/train/train_ESRGAN.yml'''<syntaxhighlight lang="python">
#### general settings
name: test12
use_tb_logger: true
model: srgan
distortion: sr
scale: 4
gpu_ids: [0]
 
#### datasets
datasets:
  train:
    name: DIV2K
    mode: LQGT
     dataroot_GT: /mnt/e/test/OUT_SET/HR
     dataroot_LQ: /mnt/e/test/OUT_SET/HR_4
 
    use_shuffle: true
    n_workers: 6  # per GPU
    batch_size: 16
    GT_size: 128
     use_flip: true
     use_rot: true
     color: RGB
  val:
     name: val_set14_part
     mode: LQGT
     dataroot_GT: /mnt/e/test/OUT_SET/VAL
     dataroot_LQ: /mnt/e/test/OUT_SET/VAL4
 
#### network structures
network_G:
  which_model_G: RRDBNet
  in_nc: 3
  out_nc: 3
  nf: 64
  nb: 23
network_D:
  which_model_D: discriminator_vgg_128
  in_nc: 3
  nf: 64


По настройкам:
#### path
path:
  #pretrain_model_G: /home/vova/tmp/BasicSR/experiments/pretrained_models/RRDB_ESRGAN_x4.pth
  pretrain_model_G: /home/vova/BasicSR_old/experiments/pretrained_models/RRDB_ESRGAN_x4.pth
  strict_load: true
  #resume_state: ~
  resume_state: /home/vova/BasicSR_old/experiments/test12/training_state/23200.state


input_folder = 'путь для изображений'
#### training settings: learning rate scheme, loss
train:
  lr_G: !!float 1e-4
  weight_decay_G: 0
  beta1_G: 0.9
  beta2_G: 0.99
  lr_D: !!float 1e-4
  weight_decay_D: 0
  beta1_D: 0.9
  beta2_D: 0.99
  lr_scheme: MultiStepLR


save_folder = 'путь куда сохранять' скрипт сам создаст папку, не нужно её создавать заранее
  niter: 400000
  warmup_iter: -1  # no warm up
  lr_steps: [50000, 100000, 200000, 300000]
  lr_gamma: 0.5


crop_sz = 480 размер изображений
  pixel_criterion: l1
  pixel_weight: !!float 1e-2
  feature_criterion: l1
  feature_weight: 1
  gan_type: ragan  # gan | ragan
  gan_weight: !!float 5e-3


step = 240 шаг смещения, то есть мы получаем не разные отдельные куски, а с небольшим повторением предыдущего
  D_update_ratio: 1
  D_init_iters: 0


  manual_seed: 10
  val_freq: !!float 5e3


Туже самую операцию нужно проделать с папкой где уменьшенные в 4 раза изображения
#### logger
logger:
  print_freq: 50
  save_checkpoint_freq: !!float 2e2


но подкорректировать '''extract_subimgs_single.py'''<syntaxhighlight lang="python">
</syntaxhighlight>Тут много всего
...
"""A multi-thread tool to crop sub imags."""
    input_folder = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR4/'
    save_folder = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR4_sub/'
    n_thread = 20
    crop_sz = 120
    step = 60
    thres_sz = 48
    compression_level = 3  # 3 is the default value in cv2
    # CV_IMWRITE_PNG_COMPRESSION from 0 to 9. A higher value means a smaller size and longer
    # compression time. If read raw images during training, use 0 for faster IO speed.
...
</syntaxhighlight>Так как у нас все меньше в 4 раза.


и снова запускаем
указать пути для все видов файлов
python extract_subimgs_single.py
В итоге из 855 файлов получилось 34 488 файлов.


Столько же должно получиться с уменьшенным разрешением.
указать <br />
<br />

Версия от 12:51, 9 августа 2020

BasicSR - средство для обучения моделей.

На момент написания статьи автор обновил его до версии 1.0. Но нет возможности применить обученную сеть. ESRGAN не готов к данной версии. Поэтому берем ветку сентября 2019 года. Как только заработает актуальная ветка поправлю статью.


Базовая подготовка ОС

О этом вообще можно составить отдельную статью, так как работоспособность на разном железе требует различной установки.

На момент актуальной версии железа nvidia 10, 16 и 20 серии все работает из коробки. Но если нужно завести все на более старом железе, то есть много нюансов.


NVIDIA CUDA

Следуем инструкции установки на реальное железо linux или WSL2. Пока в статье MMEditing, но потом перенесу в отдельную статью.


Python 3

Смотрим версию:

python3 --version

Если Python установлен то покажет версию, если нет то нужно установить.

На данный момент Python есть по умолчанию в ubuntu, если сделать:

sudo apt update
sudo apt -y upgrade


pip3

Менеджер пакетов для Python 3

sudo apt install -y python3-pip


PyTorch

С PyTorch все интереснее, для актуального железа ставиться последняя доступная версия:

Выбираем нужную нам конфигурацию

stable

linux

pip

python

cuda 10.2

pip install torch torchvision

Но если железо старое то нужно устанавливать последнюю поддерживаемую версию железо. Везде по своему. В моем случае это tesla m2070:

....


BasicSR

Пакеты для Python

pip install numpy opencv-python lmdb pyyaml

TensorBoard

pip install tensorboardX



git clone -n https://github.com/xinntao/BasicSR.git

cd /tmp/BasicSR

git checkout -b test  00bbaf87163956fd00c22db73d051b9e27bcd563


Идем конфигурировать файл тренировки модели.

Подготовка набора данных

Задача состоит в том, чтобы обучить сеть на восстановление видео снятых на miniDV камеру. Видео хранилось на кассетах, после чего было перенесено на пека, методом захвата с DV камеры. Захват осуществлялся через Firewire. На данный момент это самый максимально возможный с точки зрения качества захват. Нет способов получить качество выше.

В итого имеется 50 гигабайт видео в разрешении 720x576 с соотношением сторон 4:3. Но есть много но. Камера не профессиональная, качество записи не идеальное. Оному производителю известно как получается картинка. Тут будут приложены оригиналы.

Первое, что заметно на кадрах, это последствия черезстрочной записи. Подавление черезстрочности выполнено было на этапе подготовки видео для раскадровки. Более качественного подавления черезстрочной развертки я не нашел. Следующая заметная особенность представленных кадров это некое утолщение любых границ объектов, это следствие интерполяции, которая скорее всего выполнялась на самой камере при записи. Интерполяция совсем не простая, но имеет артефакты. Так же присуще любой непрофессиональной записи, небольшой расфокус. Очень большое количество смазанных кадров в различном направлении из за низкой статичности камеры. Слабые "смазы" еще допустимы, но в большинстве случаев они ужасающе сильные, на таких кадрах попросту не за что зацепится.

Пример сжатия, видимые границы блоков 16х16 пикселей

Говорить о приведении изображения в студийное качество конечно же нельзя, чудес не бывает, но все кадры с более менее сохранившимися деталями сохранить можно.

Следующей проблемой видео является сжатие. При том, что видео захвачено с камеры в сумасшедших 35 мегабитах потока, для разрешения 720x576, не каждый 4к фильм может похвастаться таким потоком, есть множество артефактов, появляющихся при сжатии видео. Причиной тому является невысокая производительность самой камеры, в которой был встроен аппаратный кодек. У кассеты формата miniDV поток как раз примерно равен 35 мегабит. Настолько в те времена аппаратная реализация сжатия была примитивна, что не смогла в такой поток уместить изображение без видимых артефактов. Но в целом, это еще обусловлено сложностью самого изображения, у него высокая зернистость и "пёстрость", что сильно влияет на степень сжатия. Это проблема любых любительских записей.

Итак, выявлены следующие входные данные:

- Интерполяция

- Расфокусирование

- Смазанное изображение

- Артефакты сжатия

Здесь перечислены те проблемы которые можно смоделировать искусственно. Черестрочную развертку смоделировать очень не просто, Так же не просто смоделировать смазывания во всех направлениях и с разной длинной.

По части артефактов сжатия могут возникнуть вопросы - "Слишком незначительно, зачем делать на них акцент", соглашусь, но из этих артефактов возникают паттерны для возникновения более сложных артефактов, сеть будет воспринимать их как объекты и троить вокруг них шум. Поэтому нужно дать понять сети, что такого роба элементы не являются частью изображения.

Сделаю акцент на обучении сети. Самая большая проблема восстановления даже не в алгоритме. А во входных данных. Нужно каким то образом показать сети, что "вот из этого" должно получаться "вот это". И сделать это по меньшей мере 100 тысяч раз, в различных вариациях.

О наборе данных, их много, очень много. Популярны DIV2K, Flickr2K, технически это набор рандомных фото, тысячи фото всего вокруг. Так же я собрал свой сет из библиотеки, из 500 фото. У google есть тоже открытый набор данных в виде 9 миллионов фото. Но такими объемами данных оперировать на обычном ПК невозможно.

После получения наборов данных, лучше всего переименовать все по порядку. Есть 1000 изображений каждое назвать от 0001 до 1000. В именах не должно быть пробелов и спецсимволов, лучше оставить только цифры. Потом попросту будет легче ориентироваться в данных.

В моем случае в наборе DIV2K есть 800 изображений и 200 сравнительных изображений. Этот набор уже заранее так собран, так как подразумевается для машинного обучения. Сравнительные данные нужны для отчета системы нам. Чтобы было понятно в правильном ли направлении двигается сеть. И например каждые 5 тысяч итераций будет преобразовано с помощью обученной сети 200 изображений. Где будет наглядно виден прогресс.


Кратность

Если набор данных предусмотрен для машинного обучения, то размеры изображений будут иметь размеры в пикселях кратные определенному числу, например четырем. Не каждый набор данных будет таким. Так как не все сети нужны для повышения разрешения. В нашем же случае с набором данных нам придется выполнять изменение размеров, как минимум в 4 раза, иногда даже и 16. Из чего выходит необходимость иметь набор данных разрешение которого по обеим сторонам кратен 16. Какого было моё удивление когда я задал вопрос, как преобразовать массивы изображений так чтобы их разрешение обрезалось до кратных 16 по ширине и высоте. При том что все изображения имеют не фиксированное соотношение сторон. Есть фото вертикальные, есть горизонтальные, а есть квадратные.

Программ с таким функционалом не нашлось. Может плохо искал.

Смогла помочь только утилита для Linux, полностью консольная.

apt-get -y install imagemagick

Как выполнить в ней подобную операцию подсказал форум к данной софтине. Вопрос был чуть другой. Человек не хотел отрезать фото, хотел дополнить до кратного двум. Но там есть формула. В которую можно подставить нужные числа.

%[fx:16*int((w+1)/16)]x%[fx:16*int((h+1)/16)]!

где 16 это кратность

в итоге получилось что то такое:

for pic in $(ls *.png); do echo "I:${pic}"; convert ${pic} -resize $(convert ${pic} -format '%[fx:16*int((w+1)/16)]x%[fx:16*int((h+1)/16)]!' info:) /mnt/d/test/AI/Flickr2K/001_V_LRx4/${pic}; echo " - ok"; done

Что тут нужно знать:

for pic in $(ls *.png); - это создание переменной на основе того что лежит в том месте где выполнена команда. То есть нужно перейти в папку с изображениями, и выполнить команду.

можно запустить команду из любой папки, но тогда нужно указывать путь:

for pic in $(ls /mnt/e/test/005/*.png);

pic - Это переменная

Далее цикл do

-resize - означает изменение размера, в оригинале было дополнение изображения.

В конце указан путь куда должны попасть кадры после обработки.

Дунаю команду можно выполнит и без цикла

for pic in $(ls *.png); do echo "I:${pic}"; _____ ; echo " - ok"; done - это цикл, все что в нем заключено, это обычная одноразовая команда.

Ура у нас есть наборы данных нужной нам кратностью.


Теперь на примере DIV2K попробуем разложить его на несколько видов обработки .

Всего 800 изображений. Разложим их по 100. И к каждой сотне применим различные эффекты, при это уменьшим разрешение в 4 раза, так как наша сеть именно во столько раз увеличивает изображения.

Все манипуляции с понижением качества будем делать в Adobe Photoshop.

Как это работает? В Photoshop создается "экшен" своего рода запись применяемых операций. После чего этот записанный скрип можно применить к любому изображению. Так же Photoshop был бы не он, если бы не мог в пакетную обработку. Для этого есть во вкладке Файл - Автоматизация.

Начинаем с создания "экшенов" для разных сценариев "плохих" кадров.

Первый сценарий

  1. Изменяем размер изображения (50) процентов, нужно это делать в процентах, так как у всех изображений разное разрешение.
  2. Применяем фильтр Медиана с радиусом 1. Этот фильтр помимо размытия сильно усложняет изображение, с точки зрения математики. Сжимаемость становиться плохой.
  3. Затем снова снижаем размер изображения на (50) процентов. Это уже будет окончательное разрешение, из которого модель будет стремится получить оригинал.
  4. Сохраняем в выделенную папку. Зачем? Нам еще осталось выполнить важный пункт ухудшения кадра - Сжатие. Поэтому вовремя записи "Экшена" выполняем сохранение в папку, формат выбираем jpg и сжатие ставим на 4.

Открываем изображение, заканчиваем запись "экшена", и удаляем последнее действие "открыть изображение".

Теперь запускам пакетную обработку. "Выходная папка" выпираем "Не обрабатывать"

"Источник" выбираем "Папка" и выбираем папку с первой сотней изображений.

Начинаем обработку.

В заранее созданной и указанной в "Экшне" папке будут появляться уменьшенные в 4 раза и обработанные согласно "Экшену" изображения, да еще и "пришакаленые" сжатием JPEG.

Второй сценарий

Данным сценарием просто делаем небольшой расфокус.

  1. Изменяем размер изображения (50) процентов
  2. Применяем размытие по Гауссу с радиусом 1
  3. Снова снижаем разрешение на 50
  4. Сохраняем по принципу первого сценария. Только степень сжатия выставляем уже на 3 пункта.

Данным сценарием просто делаем небольшой расфокус.

Третий сценарий

В данном сценарии попробуем с имитировать интерполяцию камеры.

  1. Изменяем размер изображение (25) процентов, в 4 раза
  2. Затем снова изменяем размеры до 75 процентов
  3. После чего из меняем размер уже на 133.33 процента.
  4. Сохраняем по принципу втрого сценария.

Тут мы сначала уменьшили изображение в 4 раза, затем уменьши еще раз на одну четвертую, затем интерполировали обратно до уменьшенного в 4 раза.

Тут и пригодилась кратность 16, так как мы уменьшили в 4 раза, а заем еще на одну четвертую, в итоге если бы кратность была 8 то обратный процесс преобразования мог бы вызвать различия в кратности. И для сети изображение бы не было кратным, выдавалась бы ошибка.


Четвертый сценарий

Экстремальное размытие

  1. Изменяем размер изображения (50) процентов
  2. Применяем размытие по Гауссу с радиусом 2
  3. Применяем фильтр Медиана с радиусом 2
  4. Изменяем размер изображения (50) процентов
  5. Сохраняем по принципу первого сценария.


Пятый сценарий

Размытие в движении по четырем направлениям

  1. Изменяем размер изображения (25) процентов
  2. Применяем фильтр размытие в движении 0, 90, 45, -45.
  3. Сохраняем по принципу второго сценария.

Шестой сценарий

Простое уменьшение в 4 раза

  1. Изменяем размер изображения (25) процентов
  2. Сохраняем по принципу второго сценария

Рабивка набора данных

Для того чтобы уложиться в небесконечные размеры оперативной памяти видеоускорителя, нужно разбить изображения на мелкие кусочки, это повысить также и обучаемость модели, так как набор данных станет больше.

Для этого применяется скрипт, находящийся в папке с проектом.

На данный момент все по дурацкому, хорошо работает только скрипт из активной ветки.

BasicSR/scripts/extract_subimages.py

в нем нужно указать пути


...
opt = {}
    opt['n_thread'] = 20
    opt['compression_level'] = 3

    # HR images
    opt['input_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR/'
    opt['save_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR_sub/'
    opt['crop_size'] = 480
    opt['step'] = 240
    opt['thresh_size'] = 0
    extract_subimages(opt)

    # LRx2 images
    #opt['input_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X2'
    #opt['save_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X2_sub'
    #opt['crop_size'] = 240
    #opt['step'] = 120
    #opt['thresh_size'] = 0
    #extract_subimages(opt)

    # LRx3 images
    #opt['input_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X3'
    #opt['save_folder'] = 'datasets/DIV2K/DIV2K_train_LR_bicubic/X3_sub'
    #opt['crop_size'] = 160
    #opt['step'] = 80
    #opt['thresh_size'] = 0
    #extract_subimages(opt)

    # LRx4 images
    opt['input_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR4/'
    opt['save_folder'] = '/mnt/d/test/AI/DIV2K_02/DIV2K_HR4_sub/'
    opt['crop_size'] = 120
    opt['step'] = 60
    opt['thresh_size'] = 0
    extract_subimages(opt)
...
python ./scripts/extract_subimages.py

В итоге из 855 файлов получилось 34 832 файла.

Столько же должно получиться с уменьшенным разрешением.


На данном этапе можно закончить работу над этим.


Приступаем к обучению

из папки с BasicSR_old

ищем в папке codes/options/train/train_ESRGAN.yml

#### general settings
name: test12
use_tb_logger: true
model: srgan
distortion: sr
scale: 4
gpu_ids: [0]

#### datasets
datasets:
  train:
    name: DIV2K
    mode: LQGT
    dataroot_GT: /mnt/e/test/OUT_SET/HR
    dataroot_LQ: /mnt/e/test/OUT_SET/HR_4

    use_shuffle: true
    n_workers: 6  # per GPU
    batch_size: 16
    GT_size: 128
    use_flip: true
    use_rot: true
    color: RGB
  val:
    name: val_set14_part
    mode: LQGT
    dataroot_GT: /mnt/e/test/OUT_SET/VAL
    dataroot_LQ: /mnt/e/test/OUT_SET/VAL4

#### network structures
network_G:
  which_model_G: RRDBNet
  in_nc: 3
  out_nc: 3
  nf: 64
  nb: 23
network_D:
  which_model_D: discriminator_vgg_128
  in_nc: 3
  nf: 64

#### path
path:
  #pretrain_model_G: /home/vova/tmp/BasicSR/experiments/pretrained_models/RRDB_ESRGAN_x4.pth
  pretrain_model_G: /home/vova/BasicSR_old/experiments/pretrained_models/RRDB_ESRGAN_x4.pth
  strict_load: true
  #resume_state: ~
  resume_state: /home/vova/BasicSR_old/experiments/test12/training_state/23200.state

#### training settings: learning rate scheme, loss
train:
  lr_G: !!float 1e-4
  weight_decay_G: 0
  beta1_G: 0.9
  beta2_G: 0.99
  lr_D: !!float 1e-4
  weight_decay_D: 0
  beta1_D: 0.9
  beta2_D: 0.99
  lr_scheme: MultiStepLR

  niter: 400000
  warmup_iter: -1  # no warm up
  lr_steps: [50000, 100000, 200000, 300000]
  lr_gamma: 0.5

  pixel_criterion: l1
  pixel_weight: !!float 1e-2
  feature_criterion: l1
  feature_weight: 1
  gan_type: ragan  # gan | ragan
  gan_weight: !!float 5e-3

  D_update_ratio: 1
  D_init_iters: 0

  manual_seed: 10
  val_freq: !!float 5e3

#### logger
logger:
  print_freq: 50
  save_checkpoint_freq: !!float 2e2

Тут много всего

указать пути для все видов файлов

указать