Развал схождение картинки: D1 80 d0 b0 d0 b7 d0 b2 d0 b0 d0 bb d1 81 d1 85 d0 be d0 b6 d0 b4 d0 b5 d0 bd d0 b8 d0 b5 картинки, стоковые фото D1 80 d0 b0 d0 b7 d0 b2 d0 b0 d0 bb d1 81 d1 85 d0 be d0 b6 d0 b4 d0 b5 d0 bd d0 b8 d0 b5

Содержание

Как сделать развал схождения своими руками?

Как сделать развал схождения своими руками?

Что такое развал схождение колес автомобиля картинка

Регулировка развал схождения, это обязательная процедура для всех владельцев личных транспортных средств. Одни водители пользуются платными услугами СТО, а другие без особых сложностей настраивают углы установки колес в собственном гараже.

Что такое развал схождения?

Развал – это угол отклонения оси колеса от вертикального положения.
Развал бывает положительным, когда верх колеса отклонен наружу от центра автомобиля, и отрицательный когда верх направлен в сторону к центру авто.

Данный угол нужен для снижения передачи на рулевое управление колебательных движений колеса при движении по неровностям. Также в задачу данного угла входит обеспечение как можно большего пятна контакта протектора ската с поверхностью трассы. Наличие данного угла еще влияет на устойчивость авто при прохождении поворотов.
На авто, у которых не используется подвеска МакФерсона, развал имеет небольшое положительное значение, то есть верх колес отклонен от центра авто.

Обычно значение завала маленькое, около 2 градусов.
У подвески МакФерсона данный угол имеет либо нулевое значение, то есть ось колеса имеет строго перпендикулярное положение относительно поверхности дороги, либо же, в некоторых случаях, развал колес у подвески МакФерсона имеет отрицательное значение.
Отрицательные значения угла завала используются также на авто, которые участвуют в соревнованиях по круговому треку.
Следует сказать, что значительной точности при установке данного угла добиться сложно, часто его регулировка производится довольно грубо.
В итоге регулировка угла развала приводит только к тому, что отсутствует повышенный износ шин.
Также регулировка развала должна проводиться сразу на обеих колесах, иначе в дальнейшем авто будет уносить в сторону, где установлен меньший угол.

Схождение колес
Перейдем к углу установки колеса, который называется «схождение». Это угол, устанавливается между плоскостью колеса и продольной осью самого авто и нужен для снижения увода авто.

Также этот угол значительно влияет на скорость износа шин и может измеряться либо градусами, либо миллиметрами.
Измерение схождения в миллиметрах довольно простое.
Авто ставится на площадку, сначала измеряется расстояние между внутренними краями передних колес в задней их части, а затем в передней.
Далее от значения, полученного при измерении в задней части отнимается значение, полученное при замере расстояния между колесами в передней их части. Данное значение должно иметь либо нулевое значение для подвески МакФерсона, либо положительное значение – для других видов подвески. Если значение отрицательное, данный угол имеет неправильную установку.

Кастер
Кастер – это угол продольного отклонения стойки подвески от перпендикулярного ее положения относительно поверхности дороги.
Данный угол обеспечивает дополнительную стабилизацию колес в условиях их прямолинейного движения. Также он обеспечивает самостоятельное выравнивание положения колес во время езды, обеспечивая прямолинейность движения. Данный угол должен иметь одинаковое значение на обеих стойках, иначе разность данных углов может приводить к сносу авто в одну из сторон.


Как самому сделать развал схождение?

Чтобы отрегулировать углы, понадобится набор ключей, специальная измерительная линейка, мелок для обозначений или маркер, шнур с грузиком, линейка обычная.
При регулировке развала схождения своими руками первым производится замер развала колес.
Данный угол хоть и измеряется в градусах, но его можно перевести в миллиметровое значение.
Последовательность действий для вычисления развала следующая:
Авто ставится на ровную поверхность. Желательно выполнять проверку в гараже с имеющееся в нем смотровой ямой. При этом должно иметься пространство для перемещения авто, которое нужно будет при замерах.
После установки авто на площадку, нужно выставить колеса, чтобы они «смотрели» ровно.

После выравнивания колес, нужно нанести на колесо мелом небольшие метки.
Метки ставятся вверху и внизу колеса.

Далее берется шнур с грузиком. Его нужно приложить к крылу авто так, чтобы шнур имел строго параллельное положение относительно нанесенных меток. Для удобства шнур можно приклеить к крылу скотчем.
Обычной линейкой с миллиметровыми делениями замеряется расстояние от колеса к шнуру в верхней и нижней части. Чтобы не было погрешности, данное расстояние измеряется не от шины, а от обода колеса.

После автомобиль нужно прокатить вперед, чтобы нанесенные метки повернулись на 90 градусов. На колесо снова вверху и внизу параллельно шнуру наносится еще две метки и снова замеряется расстояние между шнуром и ободом в верхней и нижней его частях.

Затем еще раз авто прокатывается, но теперь уже так, чтобы колеса провернулись на 180 град. То есть, последние две метки должны поменяться местоположением.
Верхняя переместится вниз, а нижняя – вверх и снова производятся замеры.


Разница в трех замерах не должна значительно отличаться. Также при нормальном угле развала разница между расстояниями в верхней и нижней частях колеса при всех трех замерах должна составлять 1 мм – у авто с передним приводом, и 1-3 мм – у заднеприводной модели.
Если показатели отличаются, нужно провести регулировку.
Для этого авто поддомкрачивается, и снимается колесо.
После снятия колеса потребуется отсоединение кронштейна стойки от поворотного кулака.
Для этого потребуется воспользоваться подготовленным набором ключей.
Путем проворота эксцентрикового болта, имеющегося на поворотном кулаке, он смещается в ту или иную сторону, тем самым производится регулировка.
Насколько потребуется сдвигать поворотный кулак, подскажут раннее проведенные замеры.

После этого кронштейн стойки соединяется с кулаком и колесо авто ставится на место. После регулировки нужно будет еще раз провести замеры, чтобы убедиться в правильности регулировки.

Проверка и регулировке второго угла схождения.
Последовательность проверки и регулировки данного угла такова:
Авто становится на площадку, колеса выравниваются.
С внутренней стороны колес в передней части наносятся две метки, наносить их нужно ближе к ободу.
Телескопическую линейку для замера схождения подготавливают, создав у нее предварительный натяг. Концы линейки нужно упереть в имеющиеся метки. Подвижную шкалу линейки нужно переместить так, чтобы отметка «0» совпала с неподвижным указателем.

После установки линейки авто нужно прокатить вперед, так чтобы линейка оказалась в задней части колеса.
Важно при прокатывании проследить, чтобы линейка ни обо что не зацепилась.

Далее нужно посмотреть, имеется ли отклонение на шкале и насколько. У переднеприводных авто значение схождения должно составлять «0/+-1».
Если показания линейки такие, то регулировки не нужна.

Если показания больше, то производится регулировка.
Данная операция производится изменением длины рулевых тяг. На тяге нужно послабить контргайку и в зависимости от того, удлинять ее нужно или укорачивать, тягу нужно либо немного выкрутить, либо вкрутить.
После чего снова затянуть контргайку.
Закончив с регулировкой, нужно еще раз провести замеры.
Регулировка кастора обычно не проводится.
Важно учитывать, что перед началом проверок и регулировок развала/схождения своими руками, следует проверить состояние резиновых элементов подвески на износ, а также проверить состояние наконечников рулевых тяг.
При сильном их износе показания при замерах будут отличаться и правильно отрегулировать углы будет невозможно.
После регулировки правильность установки развала схождения колес можно проверить на дороге. Автомобиль с правильно отрегулированными углами не должно уводить в сторону, биение в руль должно отсутствовать.

Развал схождение и износ резины


Быстрый износ резины при неправильной настройке развала-схождения колес.
1. Положение рулевого колеса при прямолинейном движении автомобиля отклонено от среднего положения.
Причин появления такого дефекта может быть несколько:
повышенный люфт руля, который не был учтён при регулировке схождения;
задний мост несколько повёрнут относительно продольной оси автомобиля.
Этот дефект может быть пропущен регулировщиком, если работы проводились на оптическом стенде, а также в том случае, когда на компьютерном стенде отключён режим измерения угла установки мостов;
разница давлений в шинах правых и левых колёс, которая не была устранена перед регулировкой;
наличие иных скрытых дефектов в подвесной системе, которые были пропущены при осмотре и проверке ходовой части автомобиля перед регулировкой;
Известны случаи, когда среднее положение руля изменяется, если колёса на передней подвеске поменять между собой.
В случаях, когда присутствует самопроизвольное уклонение от прямолинейного движения (увод в сторону), следует выявить и устранить причину уклонения, а только потом проверять среднее положение руля.
2. Автомобиль самопроизвольно отклоняется в сторону от направления движения.
Причин также может быть несколько:
разница в качестве изготовления покрышек передних колёс, выражаемая в неоднородности силовых характеристик их металлического каркаса. Такое встречается нередко. Чтобы проверить, нужно поменять передние колёса – увод должен поменять своё направление. Чтобы устранить его, следует менять между собой колёса, подбирая такую пару, при которой самопроизвольный увод прекратится;
дефекты заднего моста, диагностику которого перед регулировкой пропустили. Следует выполнить осмотр и проверку положения заднего моста;
наличие скрытых дефектов в подвесных системах, не выявленных во время их диагностики, проведённых не в полном объёме или некачественно;
некачественно выполненная регулировка или не откалиброванный проверочный стенд.
3. Односторонний увод машины появился только после выполненной регулировки, до этого уклонения не было, но был характерный неравномерный износ резины.
Причиной может быть разница в качестве покрышек, о которой упоминается выше, приводящей к самопроизвольному уклонению машины от прямолинейного движения. Однако до этого увод компенсировался неправильным схождением, устранение которого привело к появлению уклонения.
4. В этом случае следует поменять резину.

Маркировка автомобильных шин. Таблица индексов нагрузки и скорости.

Развал схождение 2110 — фото, описание на VAZ-2110.net

сход-развал регулировки колес Вашего Авто.

отрицательный развал)).

BMW E38 Club — Развал передних колес!

Лада 2110 самая Любимая..

Замена опорного подшипника ВАЗ 2110 своим руками (без сход-развала) .

Переобулся + сход развал, продам штампы ВАЗ 4*98.

Весенний сход-развал.

регулировка угла развала и схождения.

Лада 2110 самая Любимая..

Сегодня заехал в сервис, дабы сделали мне сход развал.

У многих современных автомобилей имеется отрицательный развал колес задней …

Развал-схождение.

Сегодня наконец-то съездил на развал.)

Замена передних амортизаторов в машине Ваз 2110.

Развал-схождение.

После замены всех стоек необходимо было сделать развал схождение .Тачку вел…

Реклама и сотрудничество. еще один элемент для управляемости, проставка &qu…

Схождение колес автомобиля.

Углы передней подвески ЛАДА(ВАЗ) 2110, 2111, 2112.

Сегодня наконец-то съездил на развал.)

Сход-развал своими руками.

Лада 2110 кварц.

еще один элемент для управляемости, проставка «развал-схождения» …

Сегодня наконец-то съездил на развал.)

Лада 2110 триумф.

…как заменили всю переднюю подвеску и тормоза, оставалось дело за малым -…

Развал-схождение.

Lada 2110. замена передних стоек, и Развал-схождение.

Сделал регулировку развал-схождение.

Впрочем, развал схождение своими руками ВАЗ 2110 вполне обычная процедура

Чувствуется разница после развала.

Развал схождение 2110 своими руками фото.

Lada 2110 Ниагара 383.

Для проведения сход-развала автомобиль необходимо поставить на эстакаду или…

Развал-схождение.

Развал схождение Ваз-2110.

На примере 2110.

Лада 2110 1.6 16V Silver Arrow.

Развал-Схождение — Техцентр «СОЗВЕЗДИЕ»

При использовании современной технологии срок на проверку колес совращается. Клиенты экономят много времени!

    Диагностика нового поколения позволяет правильно проверить автомобиль, определить даже малейшее отклонение от нормы.

За счет повышенной надежности риск ошибки при проведении проверки сводится к нулю.

Когда необходимо заказывать услугу сход-развал?

Ведущие специалисты от компания ООО ТЕХНИЧЕСКИЙ ЦЕНТР «СОЗВЕЗДИЕ» настоятельно рекомендуют постоянно следить за состоянием транспортного средства. Это безопасность движения и качество жизни!

Внимательный автолюбитель может самостоятельно визуально определить, что автомобиль нуждается в настройке и регулировке схода-развала, по неравномерному износу шин. Качество езды и безопасность существенно снижается при неравномерном износе покрышек. Даже на ровных участках дорог автомобиль будет уводить в сторону.

При первых проблемах обращайтесь в наш специализированные автосервис ООО ТЕХНИЧЕСКИЙ ЦЕНТР «СОЗВЕЗДИЕ» в СПБ. Опытные мастера рекомендую проводить регулировку развал-схождение каждые 20 тыс. пробега и чаще в ряде случаев

  1. При сезонной смене резины
  2. При покупке новых покрышек
  3. При приобретении нового транспортного средства
  4. При ремонте ходовой части
  5. При сильном ударе по колесам
  6. При настройке подвески или регулировке стоек
  7. При первых сложностях или отклонениях во время управления

Для каждого клиента компании ООО ТЕХНИЧЕСКИЙ ЦЕНТР «СОЗВЕЗДИЕ» доступны качественные услуги по ремонту и диагностике японского авто в СПБ. Работы будут выполнены быстро и эффективно. Регулировка развала-схождения выполняется с помощью современного оборудования.

  • Обязательная калибровка
  • Плановое обновление
  • Квалифицированные специалисты

В нашем автосервисе одно из лучших 3D сход-развал в СПб и ЛО. Дружная команда профессионалов с радостью окажет услуги, связанные с регулировкой и установкой схода-развала на автомобилях брендов SUBARU, NISSAN И MITSUBISH. Наши опытные мастера знают все о ремонте японских автомобилей. Смело беремся за сложную и срочную работу. Оказываем комплексные услуги по ремонту, диагностике и техническому обслуживанию транспортных средств. Опытные специалисты нашей компании постоянно повышают свой профессиональный уровень на международных семинарах и тренингах, исследуя инновационные технологии и подходы, используемые ведущими мировыми компаниями.

Мы с удовольствием решим любую вашу автомобильную проблем с SUBARU, NISSAN И MITSUBISHI.

ОФОРМЛЕНИЕ ЗАЯВКИ НА РАБОТЫ ПО РЕГУЛИРОВКИ УГЛОВ РАЗВАЛА-СХОЖДЕНИЯ

Сход-развал на 3D-стенде в Екатеринбурге по низкой цене

Автосервис «АвтоКонтинент Плюс» предлагает автовладельцам из Екатеринбурга услуги 3D сход-развала по привлекательным ценам. Работы выполняем на специальных стендах, которые предназначен для точной регулировки развала схождения колес. У нас можно сделать сход развал на любую марку автомобиля импортного или отечественного производства.

Современная технология 3d

Для точной проверки углов наклона авто загоняется на специальный стенд. На колесные диски устанавливаются мишени, с которых видеокамеры считывают исходные технические параметры. Чтобы правильно сделать развал схождение, используется специализированное программное обеспечение, обрабатывающее и анализирующее полученные результаты. Информация выводится на экран монитора в виде трехмерной модели развал-схождения колес. Данные сопоставляются с заводскими параметрами, рекомендованными производителем для определенной марки и модели автомобиля.

Достоинства технологии 3D-развала схождения в Екатеринбурге:

  • повышенная точность результатов автодиагностики;
  • применяется оборудование, устойчивое к электромагнитным помехам;
  • на достоверность результатов не влияют неровности площадки с транспортным средством;
  • за умеренную цену можно сделать развал схождение, включая восстановление угла наклона колес, а также получение информации о состоянии ходовой части, скрытых недостатках и изменениях геометрии кузова.

Как часто нужно обращаться на СТО?

Посещать автосервис необходимо после каждой замены резины и деталей передней подвески. Такую запланированную диагностику также необходимо проводить через 10000-20000 пробега или раз в полгода. Цена 3D развал-схождения полностью компенсируется точностью результатов и безопасностью отремонтированного автомобиля. Поэтому ждем вас на регулировку сход-развала по нашим специальным ценам в период смены шин к летнему или зимнему сезону.

Перечень причин незапланированной диагностики авто:

  • из-за дорожно-транспортного происшествия, чтобы проверить безопасность и исправность систем;
  • после замятия дисков, вследствие поездок по бездорожью либо ухабистому дорожному покрытию;
  • при проведении ремонтных работ, включая замену сайлентблоков, редуктора, стоек, рулевых тяг, других деталей, которые влияют на управление ТС;
  • рулевое колесо не возвращается в исходное положение по окончанию совершения маневра;
  • разнится радиус поворота при вращении руля влево или вправо;
  • были установлены проставки для увеличения высоты посадки автомобиля;
  • транспортное средство уводит вправо или влево при езде по прямолинейной траектории;
  • во время прохождения планового технического осмотра.

Непривычное изменение поведения автотранспорта, которое создает неудобства или трудности при управлении − обоснованный повод заехать в нашу автомастерскую на диагностику. Своевременное посещение СТО для регулировки сход-развала на 3D-стенде по привлекательной цене положительно скажется на равномерности износа покрышек, повысит управляемость и устойчивость на загородной трассе, а также маневренность на городских улицах.

Цена развала-схождения в Екатеринбурге

Стоимость рассчитывается с учетом двух решающих факторов:

  • модельного ряда конкретной марки автомобиля;
  • необходимости в дополнительных диагностических процедурах.

В нашем автосервисе автовладельцы из Екатеринбурга могут сделать развал схождение по низкой цене. Для выполнения автодиагностики оставьте заявку на сайте, позвоните нам по телефону. Подберем удобное для вас время.

Дополнительные услуги СТО «АвтоКонтинент Плюс»:

  • срочный или сезонный шиномонтаж;
  • капитальный ремонт моторного отсека;
  • обслуживание, замена расходных материалов.
Услуги компании АвтоКонтинент Плюс:

Развал-схождение /  Шиномонтаж, развал-схождение на В. О.

Когда говорят развал-схождение (или сход-развал) имеют ввиду регулировку углов положения колес. Попробуем разобраться в том, что именно регулируют, какие именно углы и зачем это нужно?

Если дословно переводить с английского то сход-развал – это выравнивание колес (wheel aligments).

 

 

Для чего нужен сход-развал?

Почему необходимо минимум раз в год проходить развал-схождение?

1. Безопасность вождения

В первую очередь положение колес влияет на управляемость автомобилем. Если автомобиль едет ровно и адекватно реагирует на действия водителя – это залог безопасного управления транспортным средством.
Это Ваша жизнь и здоровье, а также жизнь и здоровье других участников дорожного движения.

 

2. Уменьшение износа шин

Неправильное положение (углов развала, схождения, кастера и угла упора) колес является основной причиной преждевременного износа шин. Правильно выполненная регулировка углов развала-схождения может существено увеличить срок службы шин.

 

3. Предотвращение серьезных поломок

Развал-схождение – это проверка и регулировка систем подвески, которые позволяют вовремя обнаружить опасные повреждения и изношенность деталей, прежде чем это приведет к серьезным проблемам.

 

4. Улучшение управляемости

Замечали ли Вы, что машину все время тянет в одну сторону? Ощущали постороннюю вибрацию рулевого колеса? Приходится все время подруливать, чтобы автомобиль ехал прямо? Развал-схождение может устранить многие подобные недостатки управления машиной. Когда все компоненты системы подвески отрегулированы должным образом, автомобиль хорошо ведет себя на дороге и ощутимо повышается плавность хода.

 

5. Экономия топлива

Неправильное положение колес может приводить к появлению дополнительного сопротивления во время движения автомобиля. Правильно выполненный сход-развал приводит к тому, что все 4 колеса стоят параллельно, а это сводит к минимуму сопротивление качению. Расход топлива на трассе снижается.

 

Развал-схождение. Основной принцип

В двух словах, развал-схождение состоит из настройки углов установки колес, таким образом, чтобы они были перпендикулярны земле и параллельны друг другу.
Целью этих корректировок является увеличение сроков службы шин и автомобиля, сохранение правильной траектории движения автомобиля на дороге при движении по прямой и при выполнении маневров. В ходе выполнения развала-схождения выполняют проверку и регулировку четырех углов положения колес: кастер (caster), развал (camber), схождение (toe) и положение оси (угол упора) (thrust). Рассмотрим каждый элемент в отдельности.

 

Кастер (Caster)

Caster

Кастер – угол наклона между вертикалью и осью рулевой колонки. Обратный наклон считается положительным (+), а наклон вперед отрицательным (-). Кастер влияет на рулевое управление, и практически не влияет на износ шин. По умолчанию значение кастера должно быть положительным и задается заводом-изготовителем.

Если кастер (угол наклона рулевой оси) меньше заданного, то это приводит к слишком чувтвительной реакции на движение рулем на большой скорости, а также снижается самовыравнивание руля при выходе из поворота. Если одно из колес имеет больший наклон, чем другое, то это колесо будет тянуть к центру автомобиля, что может привести к заносу автомобиля или заклиниванию колеса.

 

 

 

Развал (Camber)

Camber

Развал – это угол наклона колес от вертикали, если смотреть на переднюю часть автомобиля. Когда верхняя часть колеса отклонена наружу, развал положительный (+). Когда колесо наклонено внутрь в верхней части, развал отрицательный (-). Степень наклона измеряется в градусах от вертикали.

Отклонение от вертикали влияет на траекторию движения и износ шин. Положительный развал приводит к преждевременному износу на внешней стороне шины, отрицательный – к износу внутренней стороны шины. Даже незначительное отклонение от вертикали может привести к чрезмерному износу деталей подвески. Неравномерный развал на левой и правой стороне приводит к тому, что автомобиль начинает тащить в ту сторону, где угол развала больше.

 

 

 

Схождение (Toe)

Toe

Схождение (или сход) – является мерой того, насколько колеса повернуты относительно прямого положения. Когда колеса повернуты внутрь, сход положительный (+), когда колеса развернуты наружу – схождение отрицательное (-).
Цель регулировки схождения – сделать так, чтобы колеса катились параллельно. Регулировка схождения также служит для того, чтобы компенсировать небольшие отклонения положения элементов подвески, которые происходят, когда автомобиль катится вперед. Другими словами, по умолчанию, когда автомобиль стоит на месте колеса установлены с небольшим схождением внутрь (Toe-in), а когда автомобиль начинает двигаться – колеса выравниваются и становятся параллельно. Неправильная регулировка схождения вызывает преждевременный износ шин и нестабильность рулевого управления.

 

 

Положение задней оси (Thrust Angle)

Thrust Angle

Суть регулировки положения задней оси (угол тяги) – поставить все 4 колеса параллельно друг другу. (См. рисунок). Если линия перпендикулярная задней оси отклонена от линии соединяющей середины передней и задней оси, то:
В случае с нерегулируемой задней подвеской – это говорит о том, что скорее всего автомобиль битый или настолько деформирован, что может потребоваться капитальный ремонт с заменой задней оси.
В случае с независимой задней подвеской – отклонение положения задней оси может быть отрегулировано путем выставления правильных углов схождения для задних и передних колес.

 

 

 

 

Развал-схождение. Нормативные значения

Заводы-изготовители задают «предпочтительные» углы развала-схождения для каждой модели автомобилей. Производитель также указывает приемлемые “минимумы” и “максимумы” углов схода-развала.

 

Вывод

Развал-схождение является одним из ключевых факторов грамотной эксплуатации автомобиля, поддержания оптимального состояния элементов подвески, минимизации износа, правильного баланса и эффективной производительности шин. Сход-развал следует рассматривать как обычное, регулярное, профилактическое обслуживание. Кроме того, развал-схождение обеспечит безопасное, предсказуемое управление транспортным средством, а также мягкость и комфорт во время поездок на Вашем автомобиле.

В значительной степени это перевод с английского статьи Tire Tech: WHEEL ALIGNMENT 
Отдельное спасибо за картинки.
Thanks Town Fair Tire  

г. Санкт-Петербург, В.О., пер. Декабристов, д.20

Тел.: (812) 350-33-02, (951) 660-87-92

 

См. прайс на шиномонтаж, развал-схождение, сезонное хранение шин и цены на новые шины:

 

Реставрация, автотехцентр в Красноярске — отзыв и оценка — Флампер

Всем доброго дня !

Давно хотел написать свой опыт связанный с данным автосервисом, а именно с оказываемой данным сервисом услугой Развал/Схождение.

В сентябре 2016 года мне предстояла достаточно длительная поездка на личном автомобиле и соответственно в августе месяце я плотно занялся подготовкой авто к данному мероприятию. Заехал в…

Показать целиком

Всем доброго дня !

Давно хотел написать свой опыт связанный с данным автосервисом, а именно с оказываемой данным сервисом услугой Развал/Схождение.

В сентябре 2016 года мне предстояла достаточно длительная поездка на личном автомобиле и соответственно в августе месяце я плотно занялся подготовкой авто к данному мероприятию. Заехал в «Реставрацию», сделал диагностику подвеске на вибростенде, после чего заменил необходимые элементы подвески которые в результате диагностики были выявлены. Естественно следующим этапом подготовки авто был Развал/Схождение. Про данный автосервис, по Развал/Схождение, от своих товарищей, причем у которых достаточно редкие японские авто, с очень сложной подвеской слышал только хорошие отзывы, конечно поехал в «Реставрацию». Приехал в назначенное время, мастер забрал автомобиль, причем уехал так быстро, что я даже не понял в каком направлении он это сделал, спрашиваю у сотрудников «Реставрации» которые занимаются диагностикой подвески, куда их коллега отправился на моём автомобиле, на что они спокойно мне говорят — в другой бокс, до которого мне пешком идти не вариант, учитывая что шел дождь ( вы там ни чего не попутали ?), хорошо, ожидаю автомобиль. В зал ожидания заходит мастер, сообщает мне о том, что всё сделал, и спереди и сзади всё отрегулировал, всё отлично. Я со спокойной душой забираю автомобиль, уезжаю, по ощущениям всё нормально. По приезду в точку «В» своего путешествия, при замене масла в ДВС замечаю, что передние покрышки по внутреннему радиусу съедены до корда, задние от внутреннего края к середине превратились в слики, естественно нахожу через знакомых автосервис с Развал/Схождением, загоняю, после осмотра мастер с вопросом — «Говоришь и зад и перед делали ?» приглашает меня спуститься в смотровую яму, после чего показывает закисшие эксцентрики задней балки, которые мы не смогли просто напросто открутить даже. Пришлось на заказ ждать эксцентрики и просто потом с помощью трубы и какой-то матери срывали старые, один из ни них сломался, второй открутился. На этом история конечно не заканчивается, я возмущенный в связи с тем, что попал на резину, попал на эксцентрики и просто напросто меня на**ал мастер из «Реставрации», решил по приезду заехать в гости.

Приехал в Красноярск, звоню в «Реставрацию», общаюсь с девушкой с ресепшна, объясняю её ситуацию, она записывает мои контакты, после чего со мной связывается руководитель данного автосервиса, если мне не изменяет память, Игорь. Договариваемся о встрече, приезжаю, привожу с собой распечатки, которые у меня остались после развала «Реставрации» и после нормального развала. Руководитель автосервиса это всё изучает, после чего выносит свой вердикт, что отличия по показаниям (или как там это называется) Развал/Схождения не значительны и скорее всего резина пришла в негодность из-за пройденного расстояния в 5 000 км и в связи с тем, что резина была не новая. Собственно на этом общение и закончилось, что то доказывать, у меня не было ни какого желания.

Что касается данных по которым «реставрация» мне сделала развал/схождения, они были от модели с другой подвеской. Ваш мастер там когда делает развал/схождение он вообще внимание на картинки обращает (они там цветные такие, на них показана в том числе и подвеска) ? У вас же там современное оборудование наверное или вы как раньше, — «поставьте руль ровно» ? Тем более у вашего же мастера стаж уже более 10 лет, как заявил мне ваш руководитель.

По поводу не новой резины и пройденного расстояния. К вашему сведению, при нормальной, повседневной эксплуатации, покрышки проезжают 30 — 35 т.км., но ни как ни 5 и даже не 10.

Вот такой Развал/Схождение мне сделала «Реставрация». Приеду ли я ещё сюда ? Это вряд ли. Клиентам же данного автосервиса советую присутствовать при ремонте автомобиля и смотреть как и что делается, а не сидеть на мягком диване перед аквариумом и полагаться на мастера со стажем более 10 лет.

Сделать развал-схождение 3d в Екатеринбурге

Одной из важных регулировок в ходовой части автомобиля является развал схождение колес. Правильные углы обеспечивают легкое управление транспортным средством и равномерный износ шин. Однако со временем в подвеске и рулевом механизме выходят из строя детали, а после замены водители обнаруживают неприятные изменения в поведении автомобиля при движении. Затягивать с ремонтом нельзя, сход развал необходимо сразу же регулировать. В противном случае ускорится износ протектора шин, повысится расход топлива, машину может уводить в сторону, создавая опасность на дороге.

Изменение происходит из-за просадки и износа упругих элементов подвески: пружин рессор и сайлентблоков. В процессе эксплуатации автомобиля из-за трения увеличиваются зазоры в шарнирных соединениях подвески, которые, складываясь между собой, дают ощутимые изменения в углах установки колес. Плюс естественное старение кузова (для автомобилей с несущим кузовом), из-за того, что он испытывает в процессе эксплуатации постоянные изгибающие моменты, что приводит к постепенному изменению его «геометрии» и в свою очередь — к изменению сход-развала колес.

Цена

Услуга Цена
Проверка развала-схождения от 500 руб
Регулировка развала-схождения (за ось)
от 800 руб
Регулировка развала-схождения на коммерческом транспорте от 1600 руб

Когда следует делать

Часто автомобилисты не чувствуют изменений в управлении авто, поэтому игнорируют проведение такой регулировки, как сход развал авто.

Автомобильные эксперты рекомендуют посещать СТО в следующих случаях:

  • произведена замена рулевых наконечников или тяг;
  • выполнялся демонтаж или ремонт рулевой рейки;
  • менялись шаровые опоры;
  • установлены новые рычаги в подвеске;
  • производилась замена пружин, амортизаторов или сайлентблоков.

Существует ряд причин для внеплановой проверки схода развала  Ford.

  • Протектор стал изнашиваться неравномерно.
  • Рулевое колесо стоит неровно при движении авто на прямолинейном участке дороги.
  • Автомобиль уводит в сторону, или он рыскает по сторонам.
  • Машина запоздало реагирует на повороты руля.
  • Во время торможения авто пытается развернуться или уйти в сторону.
  • Произошел жесткий наезд на препятствие. Он может сопровождаться деформацией дисков или пробоем подвески. 

Признаки, что необходимо провести регулировку углов установки колес:

а) Неравномерный износ протектора шин
б) Появился увод или руль изменил свое положение при движении по прямой
в) Автомобиль плохо держит дорогу (рыскает)
г) Автомобиль «тупой» в управлении (реакции на движения рулем запоздалые, тугой руль)
д) При торможении автомобиль тянет в сторону или стремится развернуться на скользкой дороге (при отсутствии неисправности тормозной системы)
е) При жестком наезде на препятствия, сопровождавшимися погнутостью дисков, пробоем подвески до упоров (даже если не присутствует явных признаков перечисленных выше, нужно хотя бы провериться) — то вам необходимо проверить угол установки колес.

Заменить шины или поменять моторное масло для своей любимой машины сможет каждый водитель в собственном гараже, но справиться с регулированием подвески с домашним набором инструментов невозможно. Безопаснее для автомобиля и водителя сразу заказать 3D развал схождение в Екатеринбурге в сервисе «Форд96», который обслуживает транспорт любой модификации и не только бренда «Форд».

Преимущества технологии 3d развала-схождения

Команда «Форд96» приглашает всех владельцев всех автомобилей сделать сход развал 3d в автосервисе на высокоточном оборудовании: система «Техно Вектор 7» обеспечивает максимальный машинный обзор, позволяет правильно и точно установить углы всех колесных осей. полностью оправдывает полученные выгоды:

  1. Обслуживание любых авто
  2. Технология 3d повышает точность и скорость регулировки углов установки колес
  3. Цена сход-развала на 3d стенде ниже за счет экономии времени специалиста. Она занимает 20-30 минут
  4. Гарантия на все виды работ 2 месяца

Планируете регулировку колес? «Форд96» – лидер рейтинга сервисов по обслуживанию автомобилей марки «Форд». Закажите диагностику углов схождения или приезжайте сразу на регулировку колесных осей в удобное время.

Где сделать развал схождения в Екатеринбурге?

Конечно, в автосервисе «Форд96.рф»! Для проведения регулировочных работ у нас имеется все необходимое:

  • Чтобы правильно и точно выставить углы колес, у нас есть самое современное оборудование. ЗD стенд «Техно Вектор 7» является новейшей «широкоугольной» системой машинного зрения.
  • Квалифицированный персонал прошел обучение, что позволяет безошибочно делать регулировку.
  • Все работы выполняются быстро, качественно и по доступным ценам.
  • Работаем не только с легковым, но и с малотоннажным грузовым транспортом

Телефон автосервиса форд в Екатеринбурге:+7 (343) 247-82-23

Связаться с нами по Whatsapp: 8 (999) 559-69-10


Автотехсервис Черепанова 23

Адрес:  620034, г. Екатеринбург, ул. Черепанова, д. 23

Телефон: + 7 (343) 247-82-23

Часы работы: пн-вс с 9.00 — 21.00

Карта проезда к автосервису «Форд96» на Черепанова

Автотехсервис 8 Марта 204

Адрес:  620130, г. Екатеринбург, ул. 8 Марта, д. 204

Телефон: + 7 (343) 247-82-23

Часы работы: пн-вс с 9.00 — 21.00

Карта проезда к автосервису «Форд96» на 8 Марта



Крупный коллапс легкого | Справочная статья по радиологии

Долевой коллапс относится к коллапсу всей доли легкого. Таким образом, это подтип ателектаза (коллапс не является полностью синонимом ателектаза, который является более общим термином для «неполного расширения»). Отдельные доли легкого могут разрушиться из-за закупорки питающего бронха.

Патология

Чаще всего коллапс большей части или всей доли является вторичным по отношению к бронхиальной обструкции, вызывающей резорбтивный ателектаз.

Этиология
  • люминальный
  • панно
  • внешнее
    • сжатие соседней массой
Рентгенологические элементы

Есть несколько классических правил, которым следует обрушение долей 9 :

  • изгиб или смещение трещины / трещин в сторону схлопывающейся доли
  • требуется значительная потеря объема, чтобы вызвать помутнение воздушного пространства
  • сжатая доля треугольной или пирамидальной формы с вершиной, направленной к воротам
  • Коллапс легкого периферически поддерживает контакт с реберной париетальной плеврой, за исключением:

Несколько факторов могут повлиять на типичное появление долевого коллапса, включая ранее существовавшее заболевание легких, степень потери объема, сопутствующую консолидацию, плевральный выпот или наличие пневмоторакса.

Обычная рентгенограмма

Как правило, наблюдается помутнение воздушного пространства в легких, но внешний вид на рентгенограмме грудной клетки варьируется в зависимости от пораженной доли и обсуждается отдельно:

Некоторые особенности, однако, являются общими маркерами потери объема и полезны при обращая внимание на коллапс, а также позволяя отличить долю от помутнения без коллапса (например, консолидации, например, крупозной пневмонии). К таким признакам относятся 5,9 :

  • прямые признаки
    • смещение трещин
    • скученность легочных сосудов
  • косвенные признаки
    • возвышение ипсилатеральной гемидиафрагмы
    • скученность ипсилатеральных ребер
    • Смещение средостения в сторону ателектаза
    • Компенсаторная гиперинфляция нормальных долей
    • смещение корня в сторону обвала
    • смещение признака гранулемы
CT

Долевой коллапс обычно тривиально легко идентифицировать на КТ, но определить причину не всегда легко, так как коллапс легкого может затруднить идентификацию препятствующего поражения.Плотность спавшейся доли высока после введения контрастного вещества.

исследований, финансируемых НАСА: индустриальная цивилизация движется к «необратимому краху»? | Окружающая среда

Новое исследование, частично спонсируемое Центром космических полетов имени Годдарда НАСА, выявило перспективу того, что глобальная промышленная цивилизация может рухнуть в ближайшие десятилетия из-за неустойчивой эксплуатации ресурсов и все более неравномерного распределения богатства.

Отмечая, что предупреждения о «коллапсе» часто рассматриваются как второстепенные или противоречивые, в исследовании делается попытка осмыслить убедительные исторические данные, показывающие, что «процесс подъема и коллапса на самом деле является повторяющимся циклом, наблюдаемым на протяжении всей истории.«Случаи серьезного разрушения цивилизации из-за« стремительного коллапса — часто длящегося столетия — были довольно обычными ».

Независимый исследовательский проект основан на новой междисциплинарной модели« ДИНАМИЧЕСКАЯ ДИНАМИКА человека и природы »(HANDY), во главе с прикладной математик Сафа Мотешаррей из Национального научного фонда США при поддержке Национального центра социо-экологического синтеза совместно с группой ученых-естественников и социологов. Модель HANDY была создана с использованием небольшого гранта НАСА, но исследование, основанное на ней, было проведено независимо.Исследование, основанное на модели HANDY, было принято к публикации в рецензируемом журнале Elsevier Ecological Economics.

Было обнаружено, что согласно историческим данным даже развитые и сложные цивилизации подвержены краху, что вызывает вопросы об устойчивости современной цивилизации:

«Падение Римской империи и столь же (если не более) продвинутых империй Хань, Маурьев и Гуптов, а также столь многих передовых империй Месопотамии — все это свидетельство того, что передовые, сложные, сложные и творческие цивилизации могут быть как хрупкими, так и непостоянными.«

Изучая человеческую динамику этих прошлых случаев коллапса, проект определяет наиболее важные взаимосвязанные факторы, которые объясняют цивилизационный упадок и которые могут помочь определить риск коллапса сегодня: а именно: население, климат, вода, сельское хозяйство, и Энергия.

Эти факторы могут привести к коллапсу, когда они объединяются, чтобы создать две важные социальные особенности: «растяжение ресурсов из-за нагрузки на экологическую несущую способность»; и «экономическое расслоение общества на элиту [богатых] и массы (или« простолюдинов ») [бедных]». Эти социальные явления сыграли «центральную роль в характере или в процессе коллапса», во всех таких случаях более «последние пять тысяч лет.»

В настоящее время высокий уровень экономического расслоения напрямую связан с чрезмерным потреблением ресурсов, при этом» элиты «, базирующиеся в основном в промышленно развитых странах, несут ответственность за оба этих показателя:

«… накопленный излишек не распределяется равномерно в обществе, а скорее контролируется элитой. Масса населения, производя богатство, распределяет лишь небольшую его часть элитами, обычно на уровне или чуть выше прожиточный минимум «.

Исследование бросает вызов тем, кто утверждает, что технология решит эти проблемы за счет повышения эффективности:

«Технологические изменения могут повысить эффективность использования ресурсов, но они также имеют тенденцию повышать как потребление ресурсов на душу населения, так и масштабы добычи ресурсов, так что при отсутствии политических эффектов увеличение потребления часто компенсирует повышение эффективности использования ресурсов. .«

Повышение производительности в сельском хозяйстве и промышленности за последние два столетия произошло за счет «увеличения (а не снижения) пропускной способности ресурсов», несмотря на резкое повышение эффективности за тот же период.

Моделируя ряд различных сценариев, Мотешаррей и его коллеги приходят к выводу, что в условиях, «точно отражающих реальность сегодняшнего мира … мы обнаруживаем, что коллапса трудно избежать». В первом из этих сценариев цивилизация:

«…. кажется, находится на устойчивом пути довольно долгое время, но даже при оптимальной скорости истощения и начиная с очень небольшого количества элит, элиты в конечном итоге потребляют слишком много, что приводит к голоду среди простолюдинов, который в конечном итоге вызывает крах общества. Важно отметить, что этот коллапс типа L вызван голодом, вызванным неравенством, который приводит к потере рабочих, а не к коллапсу Природы ».

Другой сценарий сосредотачивается на роли продолжающейся эксплуатации ресурсов, обнаруживая, что «с большей скоростью истощения, упадок простолюдинов происходит быстрее, в то время как элиты все еще процветают, но в конечном итоге простолюдины полностью разрушаются, а за ними следуют элиты.«

В обоих сценариях элитные монополии на благосостояние означают, что они защищены от самых« пагубных последствий экологического коллапса до гораздо более позднего периода, чем простолюдины », что позволяет им« продолжать «вести дела как обычно», несмотря на надвигающуюся катастрофу ». Они утверждают, что тот же механизм мог бы объяснить, как «исторические коллапсы были допущены элитами, которые, казалось, не обращали внимания на катастрофическую траекторию (наиболее ярко проявляющуюся в случаях римлян и майя)».

Применяя этот урок к нашему современному затруднительному положению, исследование предупреждает, что:

«В то время как некоторые члены общества могут поднять тревогу по поводу того, что система движется к надвигающемуся коллапсу, и, следовательно, выступают за структурные изменения в обществе, чтобы избежать этого, элиты и их сторонники, которые выступали против внесения этих изменений, могут указать на долгосрочное устойчивое развитие. траектория «до сих пор» в поддержку бездействия.«

Однако ученые отмечают, что наихудшие сценарии ни в коем случае не являются неизбежными, и предполагают, что соответствующие политические и структурные изменения могут избежать краха, если не проложить путь к более стабильной цивилизации.

Двумя ключевыми решениями являются сокращение экономического неравенства для обеспечения более справедливого распределения ресурсов и резкое сокращение потребления ресурсов за счет использования менее интенсивных возобновляемых ресурсов и сокращения прироста населения:

«Коллапса можно избежать, и население сможет достичь равновесия, если уровень истощения природных ресурсов на душу населения будет снижен до устойчивого уровня и если ресурсы будут распределяться разумно справедливым образом.«

Модель HANDY, финансируемая НАСА, предлагает весьма заслуживающий доверия сигнал тревоги для правительств, корпораций и бизнеса, а также потребителей, чтобы они осознали, что «бизнес как обычно» невозможно поддерживать и что необходимы немедленные политические и структурные изменения.

Хотя исследование, основанное на HANDY, носит в основном теоретический характер — «мысленный эксперимент» — ряд других более эмпирически ориентированных исследований, например, проведенных KPMG и Управлением науки Великобритании, предупреждают, что конвергенция пищи и воды а энергетические кризисы могут создать «идеальный шторм» в течение примерно пятнадцати лет.Но эти «обычные» прогнозы могут быть очень консервативными.

Д-р Нафиз Ахмед — исполнительный директор Института политических исследований и развития и автор «Руководства пользователя по кризису цивилизации: и как его спасти» среди других книг. Следуйте за ним в Twitter @nafeezahmed

  • В эту статью 26 марта 2014 г. были внесены поправки, чтобы более четко отразить характер исследования и отношение НАСА к нему.

Как мы построили трехмерную модель рухнувшей башни Surfside Condo Tower

Times Insider объясняет, кто мы и чем занимаемся, а также делится негласным взглядом на то, как объединяется наша журналистика.

Спустя более двух месяцев после обрушения здания Champlain Towers South в Серфсайде, штат Флорида, 24 июня, остается главный вопрос: как это произошло? Официальное расследование продолжается, но пока существуют только теории и нет официального консенсуса по поводу причины.

Чтобы помочь читателям лучше понять возможные причины обрушения здания, одного из самых серьезных в истории США, когда погибли 98 человек, команда Times также начала расследование. Журналисты из графического и национального бюро, в том числе два редактора, обученные архитекторам, вместе проанализировали оригинальные проекты и построили трехмерную модель здания.Они также изучили видео, технические отчеты, звонки службы экстренной помощи и фотографии, чтобы выяснить подробности того, что могло пойти не так.

Их отчет, опубликованный в среду, показывает, что неправильный дизайн, недостаточная гидроизоляция, нарушения кодекса и конструктивные недостатки — все это могло способствовать обрушению.

«Многие теории были отвергнуты, и наша цель состояла в том, чтобы собрать все это воедино и провести вас с уровня на уровень и как бы развернуть эту картину того, что могло пойти не так, как надо», — сказал Хэён Пак. , редактор проекта.

Анджали Сингхви, графический редактор и бывший архитектор, начал с просмотра видео обрушения.

По словам г-жи Сингхви, все, с кем говорила команда, говорили, что падение здания было очень необычным. «Обычно, если строение выходит из строя, — сказала она, — оно не разрушается полностью, и вы можете эвакуироваться и спасти больше людей, но это просто разрушилось в течение нескольких минут».

Г-жа Сингхви заметила, что это выглядело так, как будто что-то вокруг основания постройки, казалось, вышло из строя первым.Вместе с командой она и Майк Бейкер, корреспондент отдела National, изучили оригинальные планы этажей, которые были опубликованы в городе Серфсайд. Журналисты сосредоточились на нескольких различных областях, в которых, казалось, были обнаружены недостатки, включая террасу у бассейна, колонны и крышу.

Но, по словам г-жи Сингхви, понять архитектурные чертежи, не взяв интервью у первоначальных дизайнеров, было непросто. Поэтому она и г-н Бейкер поговорили с экспертами, включая инженеров-строителей, архитекторов, геотехников, профессоров, юристов и подрядчиков, которые ответили на вопросы о том, что обнаружили журналисты, и помогли подтвердить, что они правильно читают планы.

«Мы пытались найти экспертов, которые могли бы обсудить каждую отдельную проблему или вещь, которая нам выделялась», — сказала г-жа Сингхви.

Затем графические редакторы создали трехмерную модель с использованием оригинальных проектных чертежей, которые позволили им визуализировать структурные компоненты здания. Они также поговорили с местными жителями и свидетелями и просмотрели более 1000 страниц документов и чертежей, которые послужили основой для дополнительной отчетности.

Например, группа получила записку для жителей от руководства здания, в которой рекомендовалось убрать пальмы, которые повреждали трубы, с террасы бассейна.Плантаторы, которые держали деревья, не были включены в первоначальные проектные чертежи здания, но команда подтвердила с помощью спутниковых снимков, что объекты были установлены на палубе в течение определенного периода времени и составляли десятки тысяч фунтов веса.

Мика Грёндаль, графический редактор и бывший архитектор, который помогал построить трехмерную модель, также проанализировал планы проекта, используя информацию о колоннах и балках из нескольких планов этажей и применив ее к модели.Он смог создать более четкую картину того, как эти структурные элементы, которые являются несущими компонентами здания, взаимодействуют и соединяются друг с другом.

«Умение читать чертежи очень помогает, — сказал он. «Понимание цели дизайна — такая важная часть головоломки».

Затем команда работала над переводом обнаруженных технических деталей в легко усваиваемую графику, — сказал Вейи Цай, редактор мультимедиа и графики, создавший многие визуальные компоненты.Она часами встречалась с репортерами и другими графическими редакторами, чтобы понять технические компоненты и перевести их для читателей.

Редакторов начали статью с изображением здания, снятой гулом вскоре после того, как она рухнула. Это изображение растворяется в трехмерной модели, которая затем сосредотачивается на фундаменте. Редакторы вводят абстрактные концепции о структурной целостности здания в короткие простые абзацы, пока читатели просматривают этажи.

г-жаЦай сказала, что она надеется, что вид Башен Шамплейн, представленный таким образом, произвел визуальное впечатление, и что статья «просто подчеркивает, что в этом здании есть проблемы от самого низа до верха».

Самоподобные решения, критическое поведение и сходимость к аттрактору при гравитационном коллапсе — arXiv Vanity

Абстрактные

Общая теория относительности и ньютоновская гравитация допускает автомодельные решения из-за его масштабной инвариантности. Это обзор на этих автомодельных решениях и их отношение к гравитационному коллапсу.В частности, наше внимание в основном уделяется решающая роль автомодельных решений в критическом поведении и притяжение при гравитационном коллапсе.

Кафедра физики, Университет Васэда

Синдзюку, Токио 169-8555, Япония

1 Введение

Основное уравнение общей теории относительности: уравнения Эйнштейна. Поскольку уравнения Эйнштейна одновременны второго порядка частично дифференциальные уравнения (PDE), получить решения непросто.Полезно предположить симметрию, такую ​​как сферическая симметрия и статичность в получении решений. Однако часто бывает трудно получить неоднородный и динамические решения. В контексте, весьма полезно предположить самоподобие. Например, в сферической симметрии это предположение сводит PDE к набору обычные дифференциальные уравнения (ОДУ). Следовательно, предположение о самоподобии очень эффективен в поиске точных и / или числовых динамические и неоднородные решения. Применение автомодельных решений очень велико, включая космологические возмущения, звездообразование гравитационный коллапс, изначальные черные дыры, космологические пустоты и космическая цензура.Среди них наиболее изученной моделью является сферически-симметричная самоподобная система с идеальными жидкостями, который был впервые предложен Кэхиллом и Таубом (1971) в общей теории относительности и Пенстоном (1969) и Ларсоном (1969) в ньютоновской гравитации.

Последние достижения в общей теории относительности самоподобные решения привлекли внимание не только потому, что их легко получить но также потому, что они могут играть важную роль в космологических ситуациях и / или гравитационном коллапсе. Одна из важных ролей автомодельных решений состоит в описании асимптотического поведения большего количества общие неавтомодельные решения.Эта роль была явно показана в нескольких моделях. такие как однородные космологические модели. В космологическом контексте предположение, что сферически-симметричные флуктуации могут естественным образом развиваться из сложных начальных условий через уравнения Эйнштейна к самоподобной форме получило название «подобие гипотеза »(Карр 1993, Карр и Коли 1999). Гипотеза также была предложена в большей степени. общие ситуации, включая гравитационный коллапс.

В данной статье мы обращаем внимание на сферически симметричная система с идеальной жидкостью.Для этой системы недавнее численное моделирование PDEs выявило два интересных поведения при гравитационном коллапсе, одно из них критическое поведение, а другой — сходимость к аттрактору. Критическое поведение наблюдалось около порога черной дыры. формирование. Есть самоподобное решение, которое находится на порог, который называется критическим решением. Для коллапса, близкого к критическому, решение сначала приближается к критическому решению, но отклоняется от это решение после этого.Для образовавшейся черной дыры соблюдается закон масштабирования. для сверхкритического коллапса. Это наблюдается только в результате тонкой настройки. параметр, параметризующий исходные данные. С другой стороны, сходимость к аттрактору есть наблюдается без подстройки. Поля плотности и скорости вокруг центра подходить к другим автомодельное решение в подходе к формированию особенность в центре, которая называется аттракторным решением.

Основная претензия данной обзорной статьи в том, что критическое поведение и схождение к аттрактору в гравитационном коллапсе оба хорошо поняты в контексте самоподобия гипотеза и анализ устойчивости при гравитационном коллапсе.Разница между этими двумя типами поведения в устойчивости подходящего автомодельного решения. Мы также вкратце просмотрите недавнюю работу о том, как эти два поведения в ньютоновской гравитации.

2 Самоподобие

В общей теории относительности самоподобие или гомотетия ковариантно определенный в терминах гомотетического вектора ξ, который удовлетворяет гомотетическое уравнение Киллинга

Мы рассматриваем идеальную жидкость как поле материи, тензор энергии-импульса которого равен

Tμν = (ρ + P) uμuν + Pgμν. (2)

В сферически-симметричном пространстве-времени с самоподобием, где гомотетический вектор не является ни параллельно и не ортогонально четырем скоростям элемента жидкости, элемент строки записывается в терминах сопутствующая координата r как (Кэхилл и Тауб, 1971)

ds2 = −eσ (ξ) dt2 + eω (ξ) dr2 + r2S2 (ξ) (dθ2 + sin2θdϕ2), (3)

где ξ = t / r. В этой системе координат безразмерная величина h такие как eσ, eω и S имеет масштабную инвариантность в следующем смысле:

ч (т, г) = ч (ат, ар) = ч (ξ), (4)

, где a> 0 — произвольная постоянная.Для автомодельного пространства-времени поле плотности ρ задается уравнениями Эйнштейна как

Это означает, что поле плотности записывается как

ρ (t, r) = 18πr2η (ξ). (6)

Следовательно, эволюция во времени эквивалентна масштабное преобразование. Пример временной эволюции поля плотности показан в Рис. 1.

Рисунок 1: Схематическое изображение автомодельной эволюции поля плотности.

Приведенное выше определение самоподобия может быть обобщенный. Одна из возможностей — дискретизировать приведенное выше определение: безразмерная величина h удовлетворяет

ч (т, г) = ч (ат, ар), а = энΔ, (7)

, где n = 0, ± 1, ± 2, ⋯. Такое самоподобие называется дискретное самоподобие. Найдено дискретное автомодельное решение. быть важным в критическом поведении наблюдается в гравитационном коллапсе безмассовое скалярное поле (Choptuik 1993) и гравитационные волны (Abrahams, Evans 1993).В этом контексте первоначально определенное самоподобие упоминается как непрерывное самоподобие.

Еще одно возможное обобщение — разрешить безразмерная величина h быть функцией из r / tα. Обобщение в этом направлении было Сделано Картером и Хенриксеном (1989,1991) и называется кинематическим самоподобием. Кинематическое самоподобие ковариантно определяется существованием вектора кинематического самоподобия, который удовлетворяет

Lξgμν = 2δgμν, Lξuμ = αuμ, (8)

где δ и α — произвольные постоянные.См. Coley (1997), Benoit and Coley (1998). и Maeda et al. (2002a, 2002b, 2003) для более подробной информации. кинематического самоподобия и кинематических автомодельных решений. В этом контексте первоначально определенное самоподобие упоминается как самоподобие первого рода.

3 Автомодельные решения

Далее мы в основном сосредоточимся на первоначально определенных самоподобие и называть это самоподобием, если только это сбивает с толку. Для идеальной жидкости уравнение Эйнштейна требует, чтобы уравнение состояния представим в следующем виде:

, где k — постоянная величина (Кэхилл и Тауб, 1971).Жидкость называется пылевой жидкостью при k = 0, радиационная жидкость при k = 1/3 и жесткая материя при k = 1. Самоподобных решений бесконечно много. Эти решения получаются путем решения ОДУ. Классификация автомодельных решений. этой системы было сделано в гомотетическом подходе Голиаф, Нильсен и Уггла (1998a, 1998b) и в сопутствующем подходе Карра и Коли (2000a, 2000b). Для взаимодополняемости этих двух подходов, см. Carr et al. (2001). Для краткого обзора автомодельных решений и, в частности, их классификации см. Carr and Coley (1999).

При получении физических решений потребуется, чтобы решение должно быть получено из регулярных начальных условий. В частности, физическое решение должно иметь исходные данные с регулярным центром. При 0

хорошо параметризует регулярный центр автомодельных решений, где t выбрано для быть отрицательным. Для регулярного центра автомодельных решений D0 конечно и не зависит от t, поскольку

D0 = limr → 0 + 4πρ (t, r) t2 = limξ → −∞12ξ2η (ξ). (11)

При 0

Такая сложная структура физических решений обусловлена характер звуковой точки как критической точки автономного система, которая была изучена Бикнеллом и Хенриксеном (1978).Звуковая точка считается критической точкой автономная система ODE после соответствующего преобразование и рассматривается в двумерном подпространство всего пространства состояний. В результате звуковые точки классифицируются на невырожденные узлы, вырожденные узлы, седла и фокусы, среди которых очаги нефизичны. На каждую физическую звуковую точку приходится два возможные направления, по которым решения могут пересечь звуковую точку, и есть два аналитические решения, соответствующие этим два направления.Для невырожденного узла два направления называются первичными и вторичными. Для первых существует однопараметрическое семейство регулярные решения, включая одно из аналитических решений, в то время как для последнего другой аналитический только решение возможно. Для вырожденного узла два направления: вырождены и существует однопараметрическое семейство регулярные решения, включая одно аналитическое решение. Для седельного все, что есть в норме на sonic point — это только два аналитических решения.

Численные решения с аналитические исходные данные были исследовали Ори и Пиран (1987, 1990), Фоглиццо и Хенриксен (1993). Этот дискретный набор решений включает плоское решение Фридмана, общерелятивистское аналог решения Ларсона-Пенстона, и семейство решений Hunter. Однако отмечается, что весь набор автомодельных решений с аналитическими исходными данными пока неясно из-за числовой трудности. В дальнейшем мы будем ссылаться на общее релятивистское решение Ларсона-Пенстона и решение Хантера (а) как решение Ори-Пирана и решение Эванса-Коулмана решение для удобства.Наиболее изученными нетривиальными автомодельными решениями являются решения Ори-Пирана и Эванса-Коулмана. Для характера звуковой точки решение Ори-Пирана пересекает вырожденную узел по второстепенному направлению для , вырожденный узел при k≃0,036 и невырожденный узел по первичному направлению для (Ори и Пиран 1990, Харада 2001). Carr et al. (2001) подробно исследовали природу решения Эванса-Коулмана при 0 Фигура 2: Профили плотности автомодельных растворов с аналитичностью для k = 0,01. «FF», «GRLP» и «GRHA» обозначим плоское решение Фридмана, общерелятивистское Раствор Ларсона-Пенстона или раствор Ори-Пирана и общерелятивистское решение Хантера (а) или решение Эванса-Коулмана соответственно.

Для k = 0, т.е. пылевой жидкости, дело обстоит несколько иначе. Ори и Пиран (1990) изучали самоподобные пылевые растворы. с правильным центром.Есть однопараметрическое семейство решений. Регулярность в центре требует, чтобы центральный параметр плотности D0 равен 2/3. Решения параметризованы не центральным параметром плотности но центральной производной третьего порядка от поля плотности. Однако этот регулярный центр не аналитичен, за исключением плоское решение Фридмана, поскольку производная третьего порядка от поля плотности отлична от нуля. Следовательно, если мы потребуем, чтобы физическое решение имело аналитические исходные данные, единственное допустимое решение — плоское решение Фридмана.Для пылесборника нет звуковой точки. См. Carr (2000) для более общего класса автомодельные пылевые растворы.

4 Критическое поведение

Критическое поведение при гравитационном коллапсе был численно открыт Чоптуиком (1993) в сферической системе безмассового скалярного поля. Для однопараметрического семейства наборов исходных данных для этой системы найдено критическое значение, за пределами которого эволюция приводит к образованию черной дыры (см. рис. 3 (а)). Для значений, близких к критическим, критическое поведение наблюдается.Решение сначала стремится к дискретному автомодельному решению, которое называется критическим решением и после этого расходится. Для околокритического и сверхкритического коллапса масса образовавшейся черной дыры следует степенному закону как

, где постоянная γ называется критическим показателем (см. рис. 3 (б)). Критический показатель для этой системы оценивается как ≈0,37. После этого открытия наблюдалось аналогичное поведение. в различных системах, например гравитационных волнах (Abrahams and Evans 1993), радиационная жидкость (Evans and Coleman 1994), идеальная жидкость, твердое вещество (Neilsen and Choptuik 2000) и так далее.Затем было обнаружено, что критическое решение может быть дискретным автомодельным решением или непрерывное автомодельное решение, в зависимости от системы. Для жидкостной системы, включая радиационную жидкостную систему, критическое решение имеет непрерывное самоподобие. Для системы радиационной жидкости Эванс и Коулман (1994) оценили критический показатель равным ≈0,36, а также обнаружил, что критическое решение полученные в результате численного моделирования УЧП очень хорошо согласуется с одним из непрерывных автомодельных решений которые получаются интегрированием ОДУ.(Вот почему мы называем это автомодельное решение как решение Эванса-Коулмана в этой статье. Мы не будем использовать термин «критическое решение» для обозначения этого решения. потому что является ли это решение важным решением может зависеть от системы, например, допускаем ли мы несферические возмущения или нет, как мы упомянем позже.) Впоследствии было обнаружено что значение критического показателя не универсально, а зависит от параметра k которое параметризует уравнение состояния P = kρ.

(а) (б)
Рисунок 3: Схематические изображения для критическое поведение при гравитационном коллапсе. (а) указывает, что гравитационный коллапс имеет критический характер в целом. В (б) масштабный закон для сформированного схематично изображена черная дыра.

Коике, Хара и Адачи (1995) дали четкую картину для критического поведения, которое называется ренормгрупповой подход. Судя по этой картинке, критическое решение предполагается автомодельное решение с аналитическими начальными данными с одиночным нестабильным режимом.Мы рассматриваем временную эволюцию решения относительно координаты самоподобия τ≡ − ln | t | а также x≡ − ln | ξ |. Тогда эволюция во времени рассматривается как поток в пространстве функций от x. Автомодельное решение с одним нестабильным режимом, которая является неподвижной точкой в ​​пространстве функций от x, имеет устойчивое многообразие коразмерности один. Это означает, что однопараметрическое семейство исходных данных в общем случае имеет пересечение с устойчивым многообразием. Коллапс, развивающийся из набор исходных данных, который является пересечением, соответствует критический коллапс, в то время как коллапс, близкий к критическому, развивается из исходного набора данных возле перекрестка.Спустя долгое время отклонение от критического коллапса из критического решения преобладает одиночный нестабильный режим, т. е.

ч (τ, x) ≈Hss (x) + (p − p ∗) eκτFrel (x), (13)

, где Hss — критическое решение, а κ и Frel — собственное значение и собственная функция одиночной неустойчивой моды. Поскольку видимый горизонт появляется, когда отклонение становится равным O (1), масса черной дыры оценивается как

M = O (r) = O (e − τ) ∝ | p − p ∗ | γ (14)

, где γ = κ − 1.Собственное значение и собственная функция неустойчивой моды определяются линеаризованным уравнением Эйнштейна с условие регулярности как в центре, так и в звуковой точке. Койке, Хара и Адачи вычислили критический показатель быть ≈0,3558019 анализом собственных значений, что очень хорошо согласуется с расчетным значением ≈0,36 из численного моделирования.

Критические явления гравитационного коллапса были наблюдаются и широко исследуются в большом количестве систем. Значение для формирования также обсуждались первичные черные дыры.

Одна из интересных систем — сферическая система. твердой материи. Neilsen и Choptuik (2000) наблюдали критическое поведение в системе жесткой материи и обнаружил, что критическим решением является непрерывное автомодельное решение. Они также оценили критический показатель как 0,96 ± 0,02. Брэди и др. (2002) подтвердили, что Эванс-Коулман решение для k = 1 имеет один нестабильный режим и что критический показатель, полученный из собственного значения анализ хорошо согласуется с оценкой по результатам численного моделирования УЧП.Это критическое поведение для системы жесткой материи кажется полностью отличным от система скалярных полей. С другой стороны, безмассовое скалярное поле эквивалентно с трудным вопросом при определенных обстоятельствах (Мэдсен 1988, Брэди и др. 2002). Брэди и др. (2002) указали, что критическое решение, который дискретно самоподобен, для системы безмассового скалярного поля не может быть построен из твердой материи потому что эквивалентность нарушена.

См. Gundlach (1998, 1999) для недавнего обзора критические явления при гравитационном коллапсе.

5 Стабильность

Устойчивость автомодельных решений к сферически-симметричные возмущения привлекли большое внимание в контексте критического поведения при гравитационном коллапсе поскольку Койке, Хара и Адачи (1995) показали, что критическое поведение понимается с точки зрения поведения нестабильный режим критического решения.

Существует два типа сферически-симметричных возмущения, аналитические режимы и режимы перегиба. Сначала рассмотрим аналитические режимы.Возмущение для безразмерной величины h записывается как

ч (τ, x) = h0 (x) + δh (τ, x). (15)

После линеаризации по возмущению возмущение δh разделяется на два фактора как

δh (τ, x) = ϵeκτF (x). (16)

Для 0 0, мода нарастает и именуется нестабильным режимом. Устойчивость решения Эванса-Коулмана. был исследован Koike, Hara and Adachi (1995) для k = 1/3 и от Maison (1996), Koike, Hara and Adachi (1999), Харада и Маэда (2001) для более общего значения k∈ (0,1), а Брэди и др. (2002) для k = 1. Все эти работы показали, что решение Эванса-Коулмана имеет единственный аналитический нестабильный режим для 0 Рисунок 4: Критические показатели для различных значений k. Графики с пометкой «[PDE]» были получены в результате численное моделирование УЧП.Все остальные сюжеты были полученные путем анализа собственных значений. Ссылки следующее: EC94 = Evans and Coleman (1994), NC00 = Neilsen и Choptuik (2000), HMS03 = Харада, Маэда и Семелин (2003), KHA9599 = Койке, Хара и Адачи (1995, 1999), Maison96 = Дом (1996), HM01 = Харада и Маэда (2001), MH02 = Маэда и Харада (2002), BCGN02 = Брэди и др. (2002). Планки погрешностей, приложенные к графикам, полученным из численное моделирование определяется по значащим цифрам когда числовые ошибки не указаны явно в ссылке.Для KHA9599, Maison96 и HM01 графики заменены кривыми потому что графиков много, а числовые ошибки считается очень маленьким. На самом деле эти кривые жесткие отличать друг от друга. Графики для ньютоновского случая построены при k = 0. поскольку ньютоновская система рассматривается как k → 0 предел общей теории относительности.

Устойчивость других автомодельных решений с аналитические исходные данные были исследовали Койке, Хара и Адачи (1999) и Харада и Маэда (2001).Затем было обнаружено, что решения Ори-Пирана не имеют нестабильного режима, в то время как общий релятивистский аналог решений семейства Хантера есть нестабильные режимы, количество из которых совпадает с количеством нулей в поле скоростей по крайней мере для рассмотренных там решений. Поскольку из неоднозначности неустойчивых режимов следует, что коразмерность устойчивого многообразия больше единицы, ожидается, что реализован подход к автомодельному решению. только в результате точной настройки более одного параметра одновременно.По этой причине численное моделирование УЧП не ударяйте по самоподобному решению более чем одним нестабильные режимы. С другой стороны, поскольку решение Ори-Пирана не имеет нестабильного режима, ожидается, что общая эволюция пойдет к этому решение без какой-либо доработки. В следующем разделе мы увидим, что это действительно так.

Далее, для мод кинка существование в общей теории относительности было ожидаемый Ори и Пираном (1990) и продемонстрированный Харадой (2001).Для анализа рассмотрим начальные возмущения, которые удовлетворяют следующим условиям: (Некоторое время мы предполагаем t <0 и позже будет упоминаться случай t> 0.) 1. Начальные возмущения исчезают внутри звуковой точки. (2) Поле плотности непрерывно. (3) Поле градиента плотности разрывное на звуковая точка, хотя и имеет определенные односторонние значения внутри и снаружи. См. Рис. 5 (a) для начальной настройки возмущения. Эволюция градиента плотности в звуковой точке оказывается локальным, что упрощает анализ.Возможен анализ режима перегиба в полном порядке. Затем было обнаружено, что устойчивость к режиму перегиба тесно связан с классификацией звуковой точки, где неустойчивость определяется взрывом градиент плотности в конечном интервале через координата времени τ.

Рисунок 5: (а) Начальная установка возмущений кинк-моды. При t <0 начальное возмущение полагается только за пределами звуковой точки.(б) Нелинейная эволюция возмущения изображен. + и - обозначают первичное и вторичное направления, соответственно. Градиент плотности пропорционален градиенту скорости V ′ / V, где штрих означает частная производная по x = −ln | ξ |. См. Подробности в Harada (2001).

Результат выглядит следующим образом. Все узловые решения первичного направления, решения с вырожденной узловой точкой и седловые анти-трансзвуковые решения нестабильны по отношению к режиму излома, в то время как все решения узловых точек вторичного направления, трансзвуковые растворы в перевалочной точке устойчивы к режим перегиба.Ситуация обратная при t> 0, за исключением случая вырожденно-узловых точечных решений, которые неустойчивы против режима кинка как при t> 0, так и при t <0. На рисунке 5 (б) показана нелинейная эволюция моды излома для звуковой точки, которая невырожденный узел, как типичный пример.

Когда мы применяем этот критерий к известным решениям, получаем следующие результаты об устойчивости к режим перегиба. Плоское (схлопывающееся) решение Фридмана имеет вид нестабильно при 0

Кинковая неустойчивость решения Эванса-Коулмана ибо повлияет на критическое поведение идеальной жидкости. Однако Neilsen и Choptuik (2000) наблюдали критическое поведение даже для который считается непрерывным экстраполяция этого для. Это не было явно показано, но предполагается, что решение Эванса-Коулмана имеет единственную аналитическую нестабильный режим даже по их результату.Более того, также сообщалось, что решение Эванса-Коулмана имеет одну аналитическую нестабильную моду для k = 1 (Brady et al. 2002). О причине, почему не возникла нестабильность излома влияют на расчеты PDE Neilsen и Choptuik (2000), Харада (2001) высказал предположение о нескольких возможностях.

Стабильность Эванса-Коулмана решение против несферических возмущений исследовано Гундлах (2002). В результате решение Эванса-Коулмана устойчив к несферическим возмущениям при while является нестабильным при 0

6 Аттрактор

Как видно из предыдущего раздела, у нас есть по крайней мере одно автомодельное решение, которое имеет нет нестабильного режима. Решением является решение Ори-Пирана для. Из обсуждения, основанного на ренормализационной группе, что мы видели в гл. 4, это решение кажется аттрактором, который подход решения в окрестности особенности формирование.Численный результат, полученный Харадой и Маэдой (2001) настоятельно предполагает, что это так. В своем численном моделировании УЧП, крах закончился сингулярностью формирование в центре для определенного подмножества наборов исходных данных, где исходные наборы данных были подготовлены без точной настройки параметров. Полученные таким образом численные решения сравнивались. с автомодельными решениями, полученными интеграция ODE. Тогда для численных решений полученные путем численного моделирования УЧП, обнаружена хорошая непрерывная автомодельность и профиль поля плотности очень хорошо согласуется с решением Ори-Пирана, как видно на рис.6. Было подтверждено, что эта сходимость к автомодельному аттрактору не зависит от выбора начальный профиль плотности. Выше приведены результаты численного моделирования. для 0

(а) (б)
Рисунок 6: На рисунке (а) временная эволюция центрального параметра плотности D0 изображен по мере того, как коллапс продолжается, и центральная плотность увеличивается. На (б) снимки профилей плотности сравниваются с плотностью профиль автомодельных решений.Они получены путем численного моделирования УЧП для k = 0,01.

Однако следует отметить, что мы можем рассматривать исходные наборы данных, из которых решение не приближается к решению Ори-Пирана. Например, ясно, что набор исходных данных для самоподобные решения, кроме Ори-Пирана решение не показывает подход к решение Ори-Пирана. Кроме того, если центральная область изначально однородным и достаточно компактным, можно показать, что решение приближается к плоскому решению Фридмана вокруг центра по мере того, как обрушение идет к образование особенности.Это наводит на мысль, что окончательная судьба все эти контрпримеры также описывается автомодельными решениями. В любом случае результат численного моделирования убедительно свидетельствует о том, что что множество контрпримеров к сходимости к аттрактору является нулевой мерой в пространстве исходных наборов данных. Эти численные результаты хорошо включены в картина перенормировочного потока; критическое решение как седло и решение аттрактора как сток в потоке перенормировки функционального пространства.

Это одна из реализаций гипотезы самоподобия. в сферически-симметричном гравитационном коллапсе. Более того, поскольку голая сингулярность развивается из аналитических начальных данных в решении Ори-Пирана для , это численное исследование убедительно показывает, что нарушение космической цензуры носит сферический характер. симметричное пространство-время. Необходимо отметить, что численное исследование, основанное на нулевой формулировке также получил качественно такой же результат (Харада 1998).

Исходя из этих соображений, ожидается, что одно из автомодельных решений может описать асимптотическое поведение общие и / или специальные решения в более общих ситуациях.На самом деле известно несколько других примеров, демонстрирующих что автомодельное решение описывает асимптотики более общих решений (Carr, Coley, 1999). Если гипотеза самоподобия верна в большом количестве системы, не только будут анализ особенности и / или асимптотическое поведение пространства-времени можно значительно упростить, но также следует аргументировать это в контексте структура типичной особенности (см. Белинский, Халатников и Лифшиц, 1970).

7 Ньютоновский футляр

Исследовано

ньютоновских автомодельных решений. в основном, чтобы получить реалистичные решения гравитационного коллапса ведущие к звездообразованию.Пенстон (1969) и Ларсон (1969) самостоятельно нашли автомодельное решение, который описывает гравитационно коллапсирующий изотермический газ сфера. Здесь мы называем это решение решением Ларсона-Пенстона. После этого Хантер (1977) обнаружил новую серию самоподобных решения с аналитическими исходными данными и что множество таких решений бесконечно и дискретно. Поскольку он назвал решения (a), (b), (c), (d) и так далее, здесь мы называем эти решения Hunter (a), (b), (c) и (d) решения и так далее.Шу (1977) нашел другое решение и обсудил его астрофизическое приложение. Витворт и Саммерс (1985) указали на существование новое семейство самоподобных решения с потерей аналитичности и обнаружили, что эти решения образуют ленточную структуру в пространстве всех решений. Когда Ори и Пиран (1990) расширили эти ньютоновские автомодельные решения общей теории относительности, они показали, что эти ньютоновские автомодельные решения получаются пределом k → 0 общерелятивистских автомодельных решений.Даже для сферической газовой системы с уравнением политропы состояние, можно расширить определение автомодельные решения и эти решения были изучены Голдрайхом и Вебером (1980), Яхил (1983) и Суто и Шелк (1988). Однако здесь мы сосредоточимся на случае изотермического газа.

Существует два вида режимов возмущения: аналитические режимы и другой — моды кинка, как мы видели в общем релятивистском кейс. Для первых, изучена устойчивость автомодельных решений. Ханава и Накаяма (1997), Ханава и Мацумото (2000a, 2000b) и Маэда и Харада (2001) от сферически-симметричных и несферических возмущений.Для сферически-симметричных возмущений установлено, что однородное решение коллапса и Ларсон-Пенстон решения не имеют нестабильного режима, а Hunter (а), (б), (в), (г) решения имеют один, два, три и четыре нестабильных режима соответственно. Ожидается, что все решения семейства Hunter имеют более одного нестабильные режимы, кроме решения Хантера (а).

Для возмущения кинк-моды Ори и Пиран (1988) показали, что при t <0 все узловые решения первичного направления, решения с вырожденной узловой точкой и седловые анти-трансзвуковые решения нестабильны по отношению к режиму излома, в то время как все решения узловых точек вторичного направления, трансзвуковые растворы в перевалочной точке устойчивы к режим перегиба.Ситуация обратная при t> 0, за исключением случая вырожденно-узловых точечных решений, которые неустойчивы против режима кинка как при t> 0, так и при t <0. Собственно, приведенный выше результат полностью такой же, как и в общая теория относительности. Применяя этот критерий к моде излома, было обнаружено, что однородное (схлопывающееся) решение неустойчиво, а решение Ларсона-Пенстона раствор и раствор Хантера (а) стабильны.

Поскольку приведенный выше анализ показывает, что Охотник (а) решение имеет единственный нестабильный режим, Маэда и Харада (2001) определили, что Охотник (а) Решение — критическое решение в ньютоновском коллапсе.Критический показатель, вычисляемый по собственному значению анализ составляет ≈0,10567, что является подходящим значением как предел k → 0 критического показателя в общей теории относительности. Более того, характер решения Хантера (а) очень похож к решению Эванса-Коулмана. Например, для обоих решений центральная область сжимается, окружающая область расширяется. Исходя из этих наблюдений, Харада и Маэда (2001) и Маэда и Харада (2001) определили, что решение Эванса-Коулмана является общим релятивистским аналогом раствора Хантера (а).

Более того, поскольку решение Ларсона-Пенстона не имеет нестабильных режим, он рассматривается как решение аттрактора. Собственно, это было рассмотрено и продемонстрировано что решение Ларсона-Пенстона описывает общий коллапс изотермического газа рядом с центром с момента открытия этого решения (Пенстон 1969, Ларсон 1969, Фостер и Шевалье 1993, Цурибе и Инуцука 1999).

Чтобы найти критическое поведение в ньютоновском коллапсе и увидеть связь между аттрактором и критическими решениями, Харада, Маэда и Семелин (2003) выполнили численное моделирование PDEs, которые управляют сферической системой изотермического газа.Результат такой: Когда подготовлен однопараметрический набор исходных данных, есть критическое значение параметра. Для критического значения коллапс стремится к Охотнику (а) решение. Для околокритического докритического случая коллапс сначала подходит к Охотнику (а) раствор, затем отклоняется от этого и, наконец, рассеивается. Для околокритического сверхкритического случая коллапс первым приближается к решению Хантера (а), после чего отклоняется от этого и, наконец, приближается к решению Ларсона-Пенстона.Чтобы решение приближалось к решению Ларсона-Пенстона, точная настройка параметров не требуется, но параметр только должно быть сверхкритическим. Закон масштабирования появляется для массы схлопнувшегося ядра для околокритического сверхкритического случая, а для максимальной плотности для околокритического докритического случая. Критические показатели этих законов были оценены как ≈0,11 и ≈ −0,22, что очень хорошо согласуется с ожидаемыми значениями ≈0,10567 и ≈ −0,21134, соответственно. На рис.7 показана траектория решений и полученный закон масштабирования для сжатой массы ядра.

Рисунок 7: В (а) временная эволюция центральный параметр плотности Q = lnD0 = ln [4πρ (t, 0) t2] изображается как функция центральной плотности. На (b) изображен масштабный закон для сжатого ядра. В этих расчетах параметр однопараметрического семейство исходных наборов данных выбрано температура системы, фиксированный профиль плотности. Для получения подробной информации об определениях количеств на этом рисунке, см. Harada, Maeda and Semelin (2003).

8 Резюме

Общая теория относительности и ньютоновская гравитация допускает автомодельные решения. Это связано с масштабной инвариантностью силы тяжести. Автомодельные решения важны не только потому, что это динамические и неоднородные решения легко получить, но также потому что они могут играть важные роли в асимптотическом поведении более общие решения. Мы видели, что анализ устойчивости автомодельных решений дает единую картину критического поведения и конвергенции аттрактора в гравитационном коллапсе, которые были наблюдается в недавнем численном моделировании УЧП.Поскольку и критическое поведение, и сходимость к аттрактору не только в общей теории относительности, но и в ньютоновской гравитации, эти двое считаются общими персонажами гравитационного физика коллапса. В указанном выше смысле гравитационный коллапс выделяет автомодельные решения, даже если данное начальное условие является сложным. Наконец, эта статья завершается схематическое изображение гравитационного коллапса на рис.8.

Фигура 8: Схематическое изображение судьбы гравитационного коллапса.Эта картина применима, по крайней мере, к сферически-симметричной идеальной жидкости. системе с 0 GAN — Способы повышения производительности GAN | автор: Jonathan Hui

На рисунке выше xi — это входное изображение, а xj — это остальные изображения в том же пакете. Мы используем матрицу преобразования T для преобразования функций xi в Mi , которая является матрицей B × C.

Мы выводим сходство c (xi, xj) между изображением i и j , используя L1-норму и следующее уравнение.

Сходство o (xi) между изображением xi и остальными изображениями в пакете составляет

Вот резюме:

Как цитата из статьи «Улучшенные методы обучения GAN»

Дискриминация мини-пакетов позволяет нам очень быстро создавать визуально привлекательные образцы, и в этом отношении она превосходит сопоставление признаков.

Глубокие сети могут страдать от излишней самоуверенности. Например, он использует очень мало функций для классификации объекта. Чтобы смягчить проблему, глубокое обучение использует регулирование и отсев, чтобы избежать излишней самоуверенности.

В GAN, если дискриминатор зависит от небольшого набора функций для обнаружения реальных изображений, генератор может просто создавать эти функции только для использования дискриминатора. Оптимизация может оказаться слишком жадной и не принесет долгосрочной выгоды. В GAN излишняя самоуверенность вредит.Чтобы избежать этой проблемы, мы штрафуем дискриминатор, когда прогноз для любых реальных изображений превышает 0,9 ( D (реальное изображение)> 0,9 ). Это делается путем установки нашего целевого значения метки равным 0,9 вместо 1,0. Вот псевдокод:

 p = tf.placeholder (tf.float32, shape = [None, 10]) # Используйте 0.9 вместо 1.0. 
feed_dict = {
p: [[0, 0, 0, 0.9, 0, 0, 0, 0, 0, 0]] # Изображение с меткой "3"
} # logits_real_image - логиты, вычисленные с помощью
# дискриминатора для реальных изображений.
d_real_loss = tf.nn.sigmoid_cross_entropy_with_logits (
labels = p, logits = logits_real_image)

При историческом усреднении мы отслеживаем параметры модели для последних t моделей. В качестве альтернативы мы обновляем среднее значение параметров модели, если нам нужно сохранить длинную последовательность моделей.

Мы добавляем стоимость L2 ниже к функции стоимости, чтобы штрафовать модель, отличную от среднего исторического значения.

Для GAN с невыпуклой объектной функцией историческое усреднение может остановить модель, вращающуюся вокруг точки равновесия, и действовать как демпфирующая сила для схождения модели.

Оптимизация модели может быть слишком жадной в отношении того, что генератор в настоящее время генерирует. Чтобы решить эту проблему, при воспроизведении опыта поддерживаются самые последние изображения, сгенерированные из прошлых итераций оптимизации. Вместо того, чтобы подбирать модели только с текущими сгенерированными изображениями, мы также загружаем в дискриминатор все недавно сгенерированные изображения. Следовательно, дискриминатор не будет переоборудован для конкретного момента времени генератора.

Многие наборы данных поставляются с метками для типов объектов их выборок.Тренировать GAN уже сложно. Таким образом, любая дополнительная помощь в руководстве обучением GAN может значительно улучшить производительность. Добавление метки как части скрытого пространства z помогает обучению GAN. Ниже приведен поток данных, используемый в CGAN для использования меток в образцах.

Имеют ли значение функции затрат? Должно быть иначе, все эти исследовательские усилия будут напрасными. Но если вы услышите о статье Google Brain 2017 года, у вас наверняка возникнут сомнения. Но повышение качества изображения по-прежнему остается главным приоритетом.Вероятно, мы увидим, как исследователи пробуют разные функции затрат, прежде чем мы получим однозначный ответ о достоинствах.

На следующем рисунке перечислены функции затрат для некоторых распространенных моделей GAN.

Таблица изменена отсюда.

Мы решили не детализировать эти функции затрат в этой статье. Вот статьи, в которых подробно рассматриваются некоторые общие функции затрат: WGAN / WGAN-GP, EBGAN / BEGAN, LSGAN, RGAN и RaGAN. В конце этой статьи мы перечисляем статью, в которой более подробно изучаются все эти функции затрат.Поскольку функция затрат является одной из основных областей исследований в GAN, мы настоятельно рекомендуем вам прочитать эту статью позже.

Вот некоторые из оценок FID (чем ниже, тем лучше) для некоторых наборов данных. Это один из ориентиров, но имейте в виду, что еще слишком рано делать какие-либо выводы о том, какие функции затрат работают лучше всего. Действительно, пока не существует единой функции затрат, которая бы работала лучше всех среди всех наборов данных.

Источник

(MM GAN — это функция стоимости GAN в исходной статье. NS GAN — это альтернативные функции стоимости, обращающиеся к исчезающим градиентам в той же статье.)

Но ни одна модель не работает хорошо без хороших гиперпараметров, а настройка GAN требует времени. Будьте терпеливы в оптимизации гиперпараметров, прежде чем произвольно тестировать различные функции затрат. Некоторые исследователи предположили, что настройка гиперпараметров может принести большую прибыль, чем изменение функций затрат. Тщательно настроенная скорость обучения может смягчить некоторые серьезные проблемы GAN, такие как коллапс режима. В частности, снизьте скорость обучения и повторите обучение, когда происходит сбой режима.

Мы также можем поэкспериментировать с различной скоростью обучения для генератора и дискриминатора.Например, в следующем графике используется скорость обучения 0,0003 для дискриминатора и 0,0001 для генератора в обучении WGAN-GP.

Источник
  • Масштабируйте значение пикселя изображения от -1 до 1. Используйте tanh в качестве выходного слоя для генератора.
  • Выборка эксперимента z с гауссовыми распределениями.
  • Пакетная нормализация часто стабилизирует обучение.
  • Используйте PixelShuffle и транспонированную свертку для повышения частоты дискретизации.
  • Избегайте максимального объединения для понижающей дискретизации.Используйте шаг свертки.
  • Оптимизатор Adam обычно работает лучше других методов.
  • Добавьте шум к реальным и сгенерированным изображениям перед их подачей в дискриминатор.

Динамика моделей GAN еще недостаточно изучена. Так что некоторые из советов — это просто предложения, и их оценка может отличаться. Например, статья LSGAN сообщает, что RMSProp имеет более стабильное обучение в своих экспериментах. Это довольно редко, но демонстрирует трудности, связанные с выработкой общих рекомендаций.

Дискриминатор и генератор постоянно конкурируют друг с другом. Будьте готовы к тому, что значение функции затрат может увеличиваться и уменьшаться. Не прекращайте обучение досрочно, даже если может показаться, что стоимость будет расти. Наблюдайте за результатами визуально, чтобы следить за ходом тренировки.

Пакетная нормализация BM становится стандартом де-факто во многих проектах глубоких сетей. Среднее значение и дисперсия BM выводятся из текущей мини-партии. Однако это создает зависимость между образцами.Созданные изображения не независимы друг от друга.

Это отражено в экспериментах, в которых сгенерированные изображения демонстрируют цветовой оттенок в одной и той же партии.

Оранжевый оттенок верхней партии и зеленоватый оттенок второй. Источник

Первоначально мы выбираем z из случайного распределения, которое дает нам независимые выборки. Однако смещение, создаваемое пакетной нормализацией, подавляет случайность z .

Виртуальная нормализация пакета (VBN) производит выборку контрольного пакета перед обучением.В прямом проходе мы можем предварительно выбрать эталонный пакет для вычисления параметров нормализации ( μ, и σ) для BN. Однако мы переобучим модель этим эталонным пакетом, поскольку мы используем один и тот же пакет на протяжении всего обучения. Чтобы смягчить это, мы можем объединить эталонный пакет с текущим пакетом для вычисления параметров нормализации.

Случайные начальные числа, используемые для инициализации параметров модели, влияют на производительность GAN. Как показано ниже, баллы FID при измерении производительности GAN варьируются в 50 индивидуальных запусках (тренировках).Но диапазон относительно невелик и, вероятно, будет выполнен только при более поздней точной настройке.

Источник

В документе Google Brain указывается, что LSGAN иногда дает сбой или сбой в каком-то наборе данных, и обучение необходимо перезапустить с другим случайным начальным числом.

DGCAN настоятельно рекомендует добавить BM в дизайн сети. Использование BM также стало общей практикой во многих глубоких сетевых моделях. Однако будут исключения. На следующем рисунке показано влияние BN на разные наборы данных.Ось Y — это оценка FID, которая чем ниже, тем лучше. Как указано в документе WGAN-GP, при использовании BN должен быть выключен. Мы предлагаем читателям проверить используемую функцию стоимости и соответствующую производительность FID на BN и проверить настройку с помощью экспериментов.

Изменено из исходников.

Спектральная нормализация — это нормализация веса, которая стабилизирует тренировку дискриминатора. Он управляет константой Липшица дискриминатора, чтобы смягчить проблему взрывающегося градиента и проблему коллапса режима.Эта концепция в значительной степени основана на математике, но концептуально она ограничивает изменение веса в каждой итерации, а не более, в зависимости от небольшого набора функций при различении изображений дискриминатором. Этот подход будет менее вычислительным по сравнению с WGAN-GP и обеспечит хорошее покрытие режима, которое часто встречается во многих методах GAN.

Режим коллапса может быть не так уж и плох. Качество изображения часто улучшается при сворачивании режима. Фактически, мы можем собрать лучшие модели для каждого режима и использовать их для воссоздания различных режимов изображений.

Источник

Дискриминатор и генератор всегда находятся в состоянии перетягивания каната, чтобы подорвать друг друга. Коллапс режима и уменьшение градиента часто объясняют дисбалансом между дискриминатором и генератором. Мы можем улучшить GAN, сосредоточив внимание на балансировании потерь между генератором и дискриминатором. К сожалению, решение кажется неуловимым. Мы можем поддерживать статическое соотношение между количеством итераций градиентного спуска на дискриминаторе и генераторе. Даже это кажется привлекательным, но многие сомневаются в его пользе.Часто мы поддерживаем соотношение один к одному. Но некоторые исследователи также проверяют соотношение 5 итераций дискриминатора на обновление генератора. Также предлагается балансировка обеих сетей с помощью динамической механики. Но только в последние годы мы получили от этого некоторую поддержку.

С другой стороны, некоторые исследователи ставят под сомнение осуществимость и желательность балансировки этих сетей. Хорошо обученный дискриминатор в любом случае дает качественную обратную связь генератору. Кроме того, нелегко научить генератор всегда догонять дискриминатор.Вместо этого мы можем обратить внимание на поиск функции стоимости, которая не имеет градиента, близкого к нулю, когда генератор не работает должным образом.

Тем не менее, проблемы остаются. Было сделано много предложений по функциям затрат, и продолжаются споры о том, что лучше.

Модель дискриминатора обычно сложнее, чем генератор (больше фильтров и больше слоев), и хороший дискриминатор дает качественную информацию. Во многих приложениях GAN мы можем столкнуться с узкими местами, когда увеличение мощности генератора не приводит к улучшению качества.Пока мы не определим узкие места и не устраним их, увеличение мощности генератора не кажется приоритетом для многих разделителей.

BigGAN был опубликован в 2018 году с целью собрать воедино некоторые практики для GAN по созданию лучших изображений на тот момент. В этом разделе мы изучим некоторые практики, которые еще не рассмотрены.

Больший размер партии

Источник (Чем меньше оценка FID, тем лучше)

Увеличение размера партии может привести к значительному падению FID, как показано выше.При большем размере пакета охватывается больше режимов и обеспечивается лучший градиент для обучения обеим сетям. Но, тем не менее, BigGAN сообщает, что модель достигает лучшей производительности за меньшее количество итераций, но после этого становится нестабильной и даже разрушается. Так что сохраняйте модель постоянно.

Трюк с усечением

Область с низкой плотностью вероятности в скрытом пространстве z может не иметь достаточно обучающих данных для ее точного изучения. Таким образом, при создании изображений мы можем избежать этих областей, чтобы улучшить качество изображения за счет изменения.то есть качество изображений повысится, но эти сгенерированные изображения будут иметь меньшую вариацию по стилю. Существуют различные методы усечения входного скрытого пространства z . Общий принцип заключается в том, что когда значения выходят за пределы диапазона, происходит повторная выборка или сжатие до области с более высокой вероятностью.

Увеличьте емкость модели

Во время настройки рассмотрите возможность увеличения емкости модели, особенно для слоев с высоким пространственным разрешением. Многие модели показывают улучшение при удвоении традиционной емкости, используемой в то время.Но не делайте этого слишком рано, не проверив сначала дизайн и реализацию модели.

Скользящие средние весов генератора

Веса, используемые генератором, вычисляются из экспоненциального скользящего среднего весов генератора.

Ортогональная регуляризация

Состояние весовой матрицы — тема, которую много изучают. Это исследование того, насколько чувствительны выходные данные функции к изменениям входных данных. Это имеет большое влияние на стабильность тренировок.Матрица Q ортогональна, если

. Если мы умножим x на ортогональную матрицу, изменения в x не будут увеличены. Такое поведение очень желательно для поддержания числовой стабильности.

Поддержание ортогональных свойств весовой матрицы с другими свойствами может быть привлекательным в глубоком обучении. Мы можем добавить ортогональную регуляризацию, чтобы стимулировать такие свойства во время обучения. Это наказывает систему, если Q отклоняется от ортогональной матрицы.

Тем не менее, известно, что это слишком ограничивает, и поэтому BigGAN использует модифицированный термин:

Ортогональная регуляризация также позволяет трюку с усечением быть более успешным в разных моделях.

Инициализация ортогонального веса

Вес модели инициализируется как случайная ортогональная матрица.

Соединение Skip-z

В обычном GAN латентный фактор z вводится только на первый уровень.При соединении skip-z прямые соединения пропуска (skip-z) из латентного фактора z подключаются к нескольким уровням генератора, а не только к первому уровню.

В этой статье мы не детализируем улучшение с помощью функции стоимости. Это важная тема, и мы рекомендуем читателям прочитать следующую статью:

Чтобы узнать больше интересных приложений GAN:

Все статьи из этой серии.

Улучшенные методы обучения GAN

Достижения в генерирующих состязательных сетях (GAN)

Обзор последних достижений в генерирующих состязательных сетях

Генеративные состязательные сети — это мощный класс нейронных сетей с замечательными приложениями.По сути, они состоят из системы двух нейронных сетей — Генератора и Дискриминатора, которые сражаются друг с другом.

GAN в действии. (Источник)

Учитывая набор целевых образцов, Генератор пытается создать образцы, которые могут обмануть Дискриминатор, чтобы он поверил, что они настоящие. Дискриминатор пытается отделить реальные (целевые) образцы от поддельных (сгенерированных) образцов. Используя этот итеративный подход к обучению, мы в конечном итоге получаем генератор, который действительно хорошо генерирует образцы, похожие на целевые образцы.

GAN имеют множество приложений, поскольку они могут научиться имитировать распределение данных практически любого типа. Обычно GAN используются для удаления артефактов, сверхвысокого разрешения, передачи позы и буквально любого вида преобразования изображений, как показано ниже:

Перевод изображений с использованием GAN. (Источник)

Однако с ними мучительно сложно работать из-за его непостоянной стабильности . Излишне говорить, что многие исследователи предложили блестящие решения для смягчения некоторых проблем, связанных с обучением GAN.Однако исследования в этой области развивались так быстро, что стало трудно отслеживать интересные идеи. В этом блоге делается попытка перечислить некоторые популярные методы, которые обычно используются для обеспечения стабильности обучения GAN.

Недостатки использования GAN — обзор

С GAN сложно работать по целому ряду причин. Некоторые из них перечислены ниже в этом разделе.

1. Коллапс мод

Natural data распределения очень сложны, а мультимодальные .То есть распределение данных имеет множество «пиков» или «режимов». Каждый режим представляет собой концентрацию схожих выборок данных, но отличается от других режимов.

Во время коллапса режима генератор производит выборки, которые принадлежат ограниченному набору режимов . Это происходит, когда генератор считает, что он может обмануть дискриминатор, зафиксировав один режим. То есть генератор производит сэмплы исключительно из этого режима.

Изображение вверху представляет результат GAN без сворачивания режима.Изображение внизу представляет результат GAN с режимом свертывания. (Источник)

Дискриминатор в конечном итоге обнаруживает, что выборки из этого режима являются поддельными. В результате генератор просто переключается в другой режим. Этот цикл повторяется бесконечно, и это существенно ограничивает разнообразие сгенерированных сэмплов. Более подробное объяснение вы можете найти в этом блоге.

2. Конвергенция

Распространенный вопрос в обучении GAN — «когда мы прекратим их обучать?».Поскольку потери в генераторе улучшаются, когда потери в дискриминаторе ухудшаются (и наоборот), мы не можем судить о сходимости на основе значения функции потерь. Это показано на изображении ниже:

График типичной функции потерь GAN. Обратите внимание, как схождение нельзя интерпретировать из этого графика. (Источник)

3. Качество

Как и в случае с предыдущей проблемой, трудно определить количественно, когда генератор производит высококачественные образцы. Дополнительная регуляризация восприятия, добавленная к функции потерь, может в некоторой степени смягчить ситуацию.

4. Показатели

Целевая функция GAN объясняет, насколько хорошо Генератор или Дискриминатор работает по отношению к своему оппоненту. Однако он не отражает качества или разнообразия результатов. Следовательно, нам нужны разные метрики, которые могут измерять одно и то же.

Терминология

Прежде чем мы углубимся в методы, которые могут повысить производительность, давайте рассмотрим некоторые термины. Это упростит объяснение методов, представленных в следующем разделе.

1. Infimum и Supremum

Проще говоря, Infimum — это наибольшая нижняя граница множества. Супремум — это наименьшая верхняя граница множества. Они отличаются от минимума и максимума в том смысле, что точная нижняя грань и супремум не обязательно должны принадлежать множеству.

2. Меры дивергенции

Меры дивергенции представляют собой расстояние между двумя распределениями. Обычные сети GAN существенно минимизируют расхождение Дженсена Шеннона между реальным распределением данных и сгенерированным распределением данных.Функции потерь GAN могут быть изменены, чтобы минимизировать другие меры расхождения, такие как расхождение Кульбака-Лейблера или полное расстояние вариации. Обычно Wasserstein GAN сводит к минимуму расстояние от земного движителя.

3. Канторович Рубинштейн Двойственность

Некоторые меры дивергенции невозможно оптимизировать в их наивной форме. Однако их двойная форма (замена нижнего предела на супремум или наоборот) может быть оптимизирована. Принцип двойственности закладывает основу для преобразования одной формы в другую.Для очень подробного объяснения того же, вы можете проверить это сообщение в блоге.

4. Непрерывность Липшица

Непрерывная функция Липшица ограничена в том, насколько быстро она может изменяться. Для того чтобы функция была липшицевой, абсолютное значение наклона графика функции (для любой пары точек) не может быть больше действительного значения K. Такие функции также известны как K-липшицевы непрерывные.

Липшицева непрерывность желательна в GAN, поскольку они ограничивают градиенты дискриминатора, по существу предотвращая проблему взрывающегося градиента. Более того, двойственность Канторовича-Рубинштейна требует этого для GAN Вассерштейна, как упоминалось в этом отличном сообщении в блоге.

Методы повышения производительности

Существует множество приемов и приемов, которые можно использовать для повышения стабильности и мощности GAN. Чтобы этот блог был кратким, я объяснил только относительно новые или сложные методы. Я перечислил другие разные приемы и техники в конце этого раздела.

1. Альтернативные функции потерь

Одним из самых популярных исправлений недостатков GAN является Wasserstein GAN .Он по существу заменяет расхождение Дженсена Шеннона обычных GAN на расстояние Earth Mover (расстояние Вассерштейна-1 или расстояние EM). Исходная форма ЭМ-расстояния неразрешима, и поэтому мы используем его дуальную форму (вычисляемую с помощью двойственности Канторовича Рубинштейна). Для этого требуется, чтобы дискриминатор был 1-липшицевым , что поддерживается отсечением весов дискриминатора.

Преимущество использования расстояния Earth Mover состоит в том, что оно составляет непрерывно , даже когда реальное и сгенерированное распределения данных не пересекаются, в отличие от расхождения JS или KL.Также существует корреляция между качеством сгенерированного изображения и значением потерь (Источник). Недостатком является то, что нам нужно выполнять несколько обновлений дискриминатора для каждого обновления генератора (в соответствии с исходной реализацией). Более того, авторы утверждают, что ограничение веса — ужасный способ обеспечить ограничение 1-Липшица.

В отличие от дивергенции Дженсена-Шеннона (справа) расстояние от землеройного двигателя непрерывно, даже если распределения не являются непрерывными. Обратитесь к этому документу для подробного объяснения.

Еще одно интересное решение — использовать среднеквадратичные потери вместо потерь журнала. Авторы LSGAN утверждают, что обычная функция потерь GAN не дает большого стимула «подтягивать» сгенерированное распределение данных к реальному распределению данных.

Потеря журнала в исходной функции потерь GAN не влияет на расстояние сгенерированных данных от границы решения (граница решения разделяет реальные и поддельные данные). LSGAN, с другой стороны, штрафует сгенерированных выборок , которые находятся на далеко от границы принятия решения , по существу «подтягивая» сгенерированное распределение данных ближе к реальному распределению данных.Это достигается путем замены потерь в журнале среднеквадратическими потерями. Подробное объяснение этого можно найти в этом блоге.

2. Правило обновления двух шкал времени (TTUR)

В этом методе мы используем разную скорость обучения для дискриминатора и генератора (Источник). Обычно правило более медленного обновления используется для генератора, а правило более быстрого обновления используется для дискриминатора. Используя этот метод, мы можем выполнять обновления генератора и дискриминатора в соотношении 1: 1 и просто изменять скорость обучения.Примечательно, что реализация SAGAN использует этот метод.

3. Штраф за градиент

В статье «Улучшенное обучение WGAN» авторы утверждают, что отсечение веса (как первоначально выполнялось в WGAN) приводит к проблемам оптимизации . Они утверждают, что ограничение веса вынуждает нейронную сеть изучать «более простые приближения» к оптимальному распределению данных, что приводит к результатам более низкого качества . Они также утверждают, что отсечение веса приводит к проблеме взрывающегося или исчезающего градиента , если гиперпараметр WGAN не установлен должным образом.Автор вводит простой градиентный штраф, который добавляется к функции потерь, так что вышеупомянутые проблемы смягчаются. Кроме того, сохраняется непрерывность 1-Lipschitz , как и в исходной реализации WGAN.

Штраф за градиент добавлен как регуляризатор, как в исходном документе WGAN-GP. (Источник)

Авторы DRAGAN утверждают, что коллапс режима происходит, когда игра, в которую играет GAN (т. Е. Дискриминатор и генератор, идут друг против друга), достигает «состояния локального равновесия».Они также утверждают, что градиенты, вносимые дискриминатором вокруг таких состояний, являются «резкими». Естественно, использование градиентного штрафа поможет нам обойти эти состояния, значительно повысив стабильность и уменьшив коллапс режима.

4. Спектральная нормализация

Спектральная нормализация — это метод нормализации веса , который обычно используется в Дискриминаторе для улучшения процесса обучения. Это по существу гарантирует, что дискриминатор K-Lipschitz непрерывен.

Некоторые реализации, такие как SAGAN, также использовали спектральную нормализацию в генераторе. Также указано, что этот метод более эффективен в вычислительном отношении, чем Gradient Penalty (Source).

5. Развертывание и упаковка

Как сказано в этом замечательном блоге, один из способов предотвращения скачкообразного изменения режима — заглянуть в будущее, а предвидеть противодействие при обновлении параметров. Развернутые GAN позволяют генератору обмануть дискриминатор после того, как у дискриминатора была возможность ответить (с учетом противодействия).

Другой способ предотвращения коллапса режима — «упаковать» несколько выборок, принадлежащих к одному классу, перед их передачей в дискриминатор. Этот метод включен в PacGAN , в котором сообщается о приличном сокращении коллапса режима.

6. Объединение GAN в стек

Одна GAN может быть недостаточно мощной для эффективного выполнения задачи. Вместо этого мы могли бы использовать несколько GAN, размещенных последовательно, где каждый GAN решает более простую версию проблемы. Например, FashionGAN использовал два GAN для выполнения локализованного перевода изображений.

FashionGAN использовал два GAN для выполнения локализованного перевода изображений. (Источник)

Доводя эту концепцию до крайности, мы можем постепенно увеличивать сложность проблемы, стоящей перед нашими GAN. Например, прогрессивные сети GAN (ProGAN) могут генерировать высококачественные изображения с отличным разрешением.

7. Релятивистские GAN

Обычные GAN измеряют вероятность того, что сгенерированные данные реальны. Релятивистские сети GAN измеряют вероятность того, что сгенерированные данные будут «более реалистичными», чем реальные данные.Мы можем измерить этот «относительный реализм» с помощью соответствующей меры расстояния, как упоминалось в статье RGAN.

Выход дискриминатора при использовании стандартных потерь GAN (изображение B). Изображение C представляет, как на самом деле должна выглядеть выходная кривая. Изображение A представляет собой оптимальное решение проблемы расхождения JS. (Источник)

Авторы также отмечают, что выход дискриминатора должен сходиться к 0,5 , когда он достигнет оптимального состояния. Однако обычные алгоритмы обучения GAN вынуждают дискриминатор выдавать «реальные» (т.е.е. 1 ) для любого изображения. Это в некотором смысле мешает дискриминатору достичь оптимального значения. Релятивистский метод также решает эту проблему и дает довольно замечательные результаты, как показано ниже.

Вывод стандартной GAN (слева) и релятивистской GAN (справа) после 5000 итераций. (Источник)

8. Механизм Self Attention

Авторы Self Attention GANs утверждают, что сверток , используемых для генерации изображений, смотрят на информации , которые распространяются локально .То есть они пропускают из отношений , которые охватывают глобально из-за их ограничивающего рецептивного поля.

Добавление карты внимания (рассчитанной в желтом поле) к стандартной операции свертки. (Источник)

Состязательная сеть, генерирующая самовнимание, позволяет ориентированное на внимание моделирование долгосрочных зависимостей для задач генерации изображений. Механизм самовнимания является дополнительным к нормальной операции свертки. Глобальная информация (зависимости на большом расстоянии) помогает создавать изображения более высокого качества.Сеть может игнорировать механизм внимания или рассматривать его вместе с обычными свертками. Подробное объяснение вы можете найти в их статье.

Визуализация карты внимания для места, отмеченного красной точкой. (Источник)

9. Разные методы

Вот список некоторых дополнительных методов (не исчерпывающий!), Которые используются для улучшения обучения GAN:

  • Сопоставление признаков
  • Мини-пакетная дискриминация
  • Историческое усреднение
  • Односторонний Сглаживание меток
  • Виртуальная пакетная нормализация

Подробнее об этих методах можно прочитать в этой статье и в этом сообщении в блоге.В этом репозитории GitHub перечислено гораздо больше техник.

Метрики

Теперь, когда мы разработали методы улучшения обучения, нам необходимо количественно подтвердить это. Для измерения производительности GAN часто используются следующие показатели:

1. Начальная оценка

Начальная оценка измеряет, насколько «реальными» сгенерированные данные являются

Начальная оценка. (Источник)

Уравнение состоит из двух компонентов: p (y | x) и p (y) . Здесь x — это изображение, созданное Генератором, а p (y | x) — это распределение вероятностей, полученное при передаче изображения x через предварительно обученную начальную сеть (предварительно обученную на наборе данных ImageNet. , как в оригинальной реализации).Кроме того, p (y) — это предельное распределение вероятностей, которое может быть вычислено путем усреднения p (y | x) по нескольким отдельным выборкам сгенерированных изображений ( x ). Эти два термина представляют два разных качества , которые желательны для реальных изображений:

  1. Сгенерированное изображение должно иметь объекты, которые имеют « значимых » (объекты четкие, а не размытые). Это означает, что p (y | x) должно иметь « низкая энтропия ». Другими словами, наша начальная сеть должна быть твердо уверена, что сгенерированное изображение принадлежит определенному классу.
  2. Сгенерированные изображения должны быть « различных, ». Это означает, что p (y) должно иметь « с высокой энтропией ». Другими словами, генератор должен создавать изображения так, чтобы каждое изображение представляло другую метку класса (в идеале).
Идеальные графики p (y | x) и p (y). У такой пары будет действительно большое расхождение KL. (Источник)

Если случайная величина — , очень предсказуемая , она имеет с низкой энтропией (т.е. p (y | x) должно быть распределением с острым пиком).Напротив, если это непредсказуемое , оно имеет с высокой энтропией (т.е. p (y) должно быть равномерным распределением). Если обе эти черты удовлетворены, мы должны ожидать большого расхождения KL между p (y | x) и p (y) . Естественно, лучше иметь большой начальный балл (IS). Для более глубокого анализа начального балла вы можете ознакомиться с этим документом.

2. Начальное расстояние Фреше (FID)

Недостаток Начальной оценки состоит в том, что статистики реальных данных не сравниваются со статистикой сгенерированных данных (Источник).Расстояние Фреше устраняет недостаток, сравнивая среднее значение и ковариацию реального и сгенерированного изображений. Fréchet Inception Distance (FID) выполняет тот же анализ, но на картах характеристик, созданных путем передачи реальных и сгенерированных изображений через предварительно обученную сеть Inception-v3 (источник). Уравнение описывается следующим образом:

FID сравнивает среднее значение и ковариацию реального и сгенерированного распределений данных. Tr означает Trace. (Источник)

Чем ниже показатель FID на , тем лучше , поскольку он объясняет, что статистика сгенерированных изображений очень похожа на статистику реальных изображений.

Заключение

Исследовательское сообщество разработало множество решений и приемов для преодоления недостатков обучения GAN. Однако трудно отследить значительный вклад из-за огромного объема новых исследований. Детали, опубликованные в этом блоге, не являются исчерпывающими по той же причине и могут устареть в ближайшем будущем. Тем не менее, я надеюсь, что этот блог послужит руководством для людей, ищущих методы повышения производительности своих сетей GAN.

Учебное пособие по DCGAN — Учебные пособия по PyTorch 1.9.1 + документация cu102

Введение

Это руководство представляет собой введение в сети DCGAN на примере. Мы обучит генерирующую состязательную сеть (GAN) генерировать новые знаменитости после показа фотографий многих настоящих знаменитостей. Большинство код здесь взят из реализации dcgan в pytorch / examples, и это документ даст подробное объяснение реализации и избавит Свет о том, как и почему работает эта модель. Но не волнуйтесь, не раньше требуется знание GAN, но может потребоваться первый таймер, чтобы потратить какое-то время рассуждения о том, что на самом деле происходит под капотом.Кроме того, ради экономии времени будет полезно иметь один или два графических процессора. Давайте начать с самого начала.

Генеративные состязательные сети

Что такое GAN?

Сети

GAN представляют собой основу для обучения модели DL для захвата обучения распределения данных, чтобы мы могли генерировать новые данные из того же распределение. Сети GAN были изобретены Яном Гудфеллоу в 2014 году и впервые описанный в статье Generative Adversarial Сети. Они состоят из двух разных моделей: генератора , и генератора. дискриминатор .Задача генератора — создавать «поддельные» изображения, похожи на обучающие изображения. Работа дискриминатора — смотреть на изображение и вывод независимо от того, является ли это реальным обучающим изображением или поддельное изображение с генератора. Во время тренировки генератор постоянно пытается перехитрить дискриминатор, создавая более качественные и лучше подделки, а дискриминатор работает, чтобы стать лучше детектив и правильно классифицируйте настоящие и поддельные изображения. В равновесие в этой игре — это когда генератор генерирует идеальные подделки, которые выглядят так, как будто они пришли непосредственно из данных обучения, а дискриминатору остается всегда угадывать с 50% уверенностью, что выход генератора реальный или поддельный.

Теперь давайте определим некоторые обозначения, которые будут использоваться в начале урока. с дискриминатором. Пусть \ (x \) будут данными, представляющими изображение. \ (D (x) \) — дискриминаторная сеть, которая выводит (скалярную) вероятность того, что \ (x \) пришла из обучающих данных, а не из генератор. Здесь, поскольку мы имеем дело с изображениями, вход в \ (D (x) \) — изображение формата CHW размером 3x64x64. Интуитивно \ (D (x) \) должен быть ВЫСОКИЙ, когда \ (x \) исходит из данных обучения, и НИЗКИЙ, когда \ (x \) исходит от генератора.\ (D (x) \) также можно рассматривать как традиционный бинарный классификатор.

Для обозначения генератора пусть \ (z \) будет вектором скрытого пространства. взяты из стандартного нормального распределения. \ (G (z) \) представляет собой функция-генератор, которая отображает скрытый вектор \ (z \) в пространство данных. Цель \ (G \) — оценить распределение, которое обучающий данные поступают из (\ (p_ {data} \)), поэтому он может генерировать поддельные образцы из это оценочное распределение (\ (p_g \)).

Итак, \ (D (G (z)) \) вероятность (скаляр) того, что выход генератор \ (G \) — реальное изображение.Как описано в Goodfellow’s бумага, \ (D \) и \ (G \) играют в минимаксную игру, в которой \ (D \) пытается увеличить вероятность того, что он правильно классифицирует реальные и подделки (\ (logD (x) \)), а \ (G \) пытается минимизировать вероятность того, что \ (D \) предсказывает, что его результаты являются фальшивыми (\ (log (1-D (G (z))) \)). Из бумаги функция потерь GAN равна

.

\ [\ underset {G} {\ text {min}} \ underset {D} {\ text {max}} V (D, G) = \ mathbb {E} _ {x \ sim p_ {data} (x) } \ big [logD (x) \ big] + \ mathbb {E} _ {z \ sim p_ {z} (z)} \ big [log (1-D (G (z))) \ big] \]

Теоретически решение этой минимаксной игры таково: \ (p_g = p_ {data} \), и дискриминатор случайным образом угадывает, входные данные настоящие или поддельные.Однако теория конвергенции GAN такова: все еще активно исследуются, и в реальности модели не всегда тренируйтесь до этого момента.

Что такое DCGAN?

DCGAN является прямым продолжением описанной выше GAN, за исключением того, что явно использует сверточные и сверточно-транспонированные слои в дискриминатор и генератор соответственно. Впервые он был описан Radford et. al. в статье Обучение представлению без учителя с помощью Глубокая сверточная генеративная состязательность Сети.Дискриминатор состоит из полосатых свертка слои, партия норма слои и LeakyReLU активации. Входное изображение — входное изображение 3x64x64, а выходное — изображение. скалярная вероятность того, что вход взят из реального распределения данных. Генератор состоит из сверточно-транспонируемый слои, слои пакетной нормы и Активации ReLU. В input — это скрытый вектор \ (z \), взятый из стандартного нормальное распределение, и на выходе получается изображение 3x64x64 RGB. Шагающий Слои conv-транспонирования позволяют преобразовать скрытый вектор в объем той же формы, что и изображение.В статье авторы также дать несколько советов о том, как настроить оптимизаторы, как рассчитать функции потерь, и как инициализировать веса модели, все из которых будет объяснено в следующих разделах.

 из __future__ import print_function
#% matplotlib встроенный
import argparse
импорт ОС
случайный импорт
импортный фонарик
импортировать torch.nn как nn
импортировать torch.nn.parallel
импортировать torch.backends.cudnn как cudnn
импортировать torch.optim как optim
импортировать torch.utils.data
импортировать torchvision.datasets как dset
импортное torchvision.трансформируется как трансформируется
импортировать torchvision.utils как vutils
импортировать numpy как np
импортировать matplotlib.pyplot как plt
импортировать matplotlib.animation как анимацию
из IPython.display импорт HTML

# Установить случайное начальное число для воспроизводимости
manualSeed = 999
#manualSeed = random.randint (1, 10000) # используйте, если вам нужны новые результаты
print ("Случайное семя:", manualSeed)
random.seed (manualSeed)
torch.manual_seed (manualSeed)
 

Вышел:

Входы

Определим некоторые входные данные для прогона:

  • dataroot — путь к корню папки набора данных.Мы будем поговорим больше о наборе данных в следующем разделе
  • worker — количество рабочих потоков для загрузки данных с DataLoader
  • batch_size — размер партии, используемый в обучении. Документ DCGAN использует размер партии 128
  • image_size — пространственный размер изображений, используемых для обучения. Эта реализация по умолчанию — 64×64. Если желателен другой размер, структуры D и G должны быть изменены. Видеть здесь для большего подробнее
  • nc — количество цветовых каналов во входных изображениях.Для цвета изображения это 3
  • nz — длина скрытого вектора
  • ngf — относится к глубине карт объектов, переносимых через генератор
  • ndf — задает глубину карты признаков, распространяемых через дискриминатор
  • num_epochs — количество обучающих эпох для запуска. Тренироваться для больше, вероятно, приведет к лучшим результатам, но также займет много времени длиннее
  • lr — курс обучения на обучение.Как описано в документе DCGAN, это число должно быть 0,0002
  • beta1 — гиперпараметр beta1 для оптимизаторов Adam. Как описано в бумага, это число должно быть 0,5
  • ngpu — количество доступных графических процессоров. Если это 0, код будет запущен в Режим ЦП. Если это число больше 0, оно будет работать с этим числом. графических процессоров
 # Корневой каталог для набора данных
dataroot = "данные / празднование"

# Количество воркеров для загрузчика данных
рабочие = 2

# Размер партии во время обучения
batch_size = 128

# Пространственный размер обучающих изображений.Размер всех изображений будет изменен на этот
# размер с помощью трансформатора.
image_size = 64

# Количество каналов в обучающих образах. Для цветных изображений это 3
nc = 3

# Размер скрытого вектора z (т.е. размер входа генератора)
nz = 100

# Размер карты признаков в генераторе
ngf = 64

# Размер карты признаков в дискриминаторе
ndf = 64

# Количество эпох обучения
num_epochs = 5

# Скорость обучения для оптимизаторов
lr = 0,0002

# Beta1 hyperparam для оптимизаторов Adam
бета1 = 0,5

# Количество доступных графических процессоров. Используйте 0 для режима ЦП.ngpu = 1
 

Данные

В этом уроке мы будем использовать лица знаменитостей. набор данных, который может можно скачать со связанного сайта или в Google Водить машину. Набор данных будет загружен в виде файла с именем img_align_celeba.zip . Один раз загружено, создайте каталог с именем Celeba и извлеките zip-файл в этот каталог. Затем установите для входа dataroot для этого ноутбука значение каталог Celeba , который вы только что создали. Результирующий каталог состав должен быть:

 / путь / к / Celeba
    -> img_align_celeba
        -> 188242.jpg
        -> 173822.jpg
        -> 284702.jpg
        -> 537394.jpg
           ...
 

Это важный шаг, потому что мы будем использовать ImageFolder класс набора данных, который требует наличия подкаталогов в корневая папка набора данных. Теперь мы можем создать набор данных, создать dataloader, настройте устройство для работы и, наконец, визуализируйте некоторые из данные обучения.

 # Мы можем использовать набор данных папки изображений так, как мы его настроили.
# Создать набор данных
набор данных = dset.ImageFolder (root = dataroot,
                           transform = transforms.Compose ([
                               transforms.Resize (размер_изображения),
                               transforms.CenterCrop (размер_изображения),
                               transforms.ToTensor (),
                               transforms.Normalize ((0,5, 0,5, 0,5), (0,5, 0,5, 0,5)),
                           ]))
# Создаем загрузчик данных
dataloader = torch.utils.data.DataLoader (набор данных, batch_size = batch_size,
                                         shuffle = True, num_workers = worker)

# Решаем, на каком устройстве мы хотим работать
устройство = фонарик.устройство ("cuda: 0" if (torch.cuda.is_available () и ngpu> 0) else "cpu")

# Постройте несколько обучающих изображений
real_batch = следующий (iter (загрузчик данных))
plt.figure (figsize = (8,8))
plt.axis ("выключено")
plt.title («Обучающие изображения»)
plt.imshow (np.transpose (vutils.make_grid (real_batch [0] .to (устройство) [: 64], padding = 2, normalize = True) .cpu (), (1,2,0)))
 

Реализация

Установив наши входные параметры и подготовив набор данных, мы можем теперь получить в реализацию. Начнем с инициализации веса стратегии, а затем поговорим о генераторе, дискриминаторе, функциях потерь, и цикл обучения подробно.

Инициализация веса

Из статьи DCGAN авторы указывают, что все веса модели должны быть случайным образом инициализирован из нормального распределения со средним значением = 0, stdev = 0,02. Функция weights_init принимает инициализированную модель как вводит и повторно инициализирует все сверточные, сверточно-транспонированные и пакетные слои нормализации для соответствия этим критериям. Эта функция применяется к моделям сразу после инициализации.

 # инициализация пользовательских весов вызывается в netG и netD
def weights_init (м):
    имя класса = м.__класс __.__ имя__
    если classname.find ('Conv')! = -1:
        nn.init.normal_ (m.weight.data, 0,0, 0,02)
    elif classname.find ('BatchNorm')! = -1:
        nn.init.normal_ (m.weight.data, 1.0, 0.02)
        nn.init.constant_ (m.bias.data, 0)
 

Генератор

Генератор \ (G \) предназначен для отображения вектора скрытого пространства (\ (z \)) в пространство данных. Поскольку наши данные являются изображениями, преобразование \ (z \) в пространство данных означает в конечном итоге создание изображения RGB с того же размера, что и обучающие изображения (т.е. 3x64x64). На практике это достигается с помощью серии двумерных сверточных транспонировать слои, каждый в паре с 2d пакетным нормальным слоем и relu активация. Выходной сигнал генератора подается через функцию tanh. чтобы вернуть его в диапазон входных данных \ ([- 1,1] \). Стоит отмечая существование пакетных нормальных функций после conv-транспонировать слои, так как это важный вклад DCGAN бумага. Эти слои помогают с течением градиентов во время тренировки.An изображение генератора из статьи DCGAN показано ниже.

Обратите внимание, как входы, которые мы устанавливаем в секции ввода ( nz , ngf и nc ) влияют на архитектуру генератора в коде. nz — длина входного вектора z, ngf относится к размеру карты характеристик которые распространяются через генератор, а nc — количество каналов в выходном изображении (установлено значение 3 для изображений RGB). Ниже код для генератора.

 # Код генератора

Генератор классов (nn.Module):
    def __init __ (self, ngpu):
        super (Генератор, сам) .__ init __ ()
        self.ngpu = ngpu
        self.main = nn.Sequential (
            # ввод - Z, переходящий в свертку
            nn.ConvTranspose2d (nz, ngf * 8, 4, 1, 0, bias = False),
            nn.BatchNorm2d (ngf * 8),
            nn.ReLU (Истина),
            # размер штата. (нгс * 8) х 4 х 4
            nn.ConvTranspose2d (ngf * 8, ngf * 4, 4, 2, 1, bias = False),
            nn.BatchNorm2d (ngf * 4),
            nn.ReLU (Истина),
            # размер штата. (нгс * 4) х 8 х 8
            nn.ConvTranspose2d (ngf * 4, ngf * 2, 4, 2, 1, bias = False),
            nn.BatchNorm2d (ngf * 2),
            nn.ReLU (Истина),
            # размер штата. (нгс * 2) х 16 х 16
            nn.ConvTranspose2d (ngf * 2, ngf, 4, 2, 1, bias = False),
            nn.BatchNorm2d (ngf),
            nn.ReLU (Истина),
            # размер штата. (нгс) х 32 х 32
            nn.ConvTranspose2d (ngf, nc, 4, 2, 1, bias = False),
            nn.Тань ()
            # размер штата. (NC) х 64 х 64
        )

    def вперед (self, input):
        return self.main (ввод)
 

Теперь мы можем создать экземпляр генератора и применить weights_init функция. Посмотрите на распечатанную модель, чтобы увидеть, как устроен объект-генератор. структурированный.

 # Создаем генератор
netG = Генератор (ngpu) .to (устройство)

# При желании обрабатывать multi-gpu
если (device.type == 'cuda') и (ngpu> 1):
    netG = nn.DataParallel (netG, список (диапазон (ngpu)))

# Применяем функцию weights_init для случайной инициализации всех весов
# означает = 0, stdev = 0.02.
netG.apply (weights_init)

# Распечатать модель
печать (netG)
 

Вышел:

 Генератор (
  (основной): Последовательный (
    (0): ConvTranspose2d (100, 512, размер_ядра = (4, 4), stride = (1, 1), bias = False)
    (1): BatchNorm2d (512, eps = 1e-05, импульс = 0,1, affine = True, track_running_stats = True)
    (2): ReLU (inplace = True)
    (3): ConvTranspose2d (512, 256, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (4): BatchNorm2d (256, eps = 1e-05, импульс = 0,1, affine = True, track_running_stats = True)
    (5): ReLU (inplace = True)
    (6): ConvTranspose2d (256, 128, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (7): BatchNorm2d (128, eps = 1e-05, импульс = 0.1, affine = True, track_running_stats = True)
    (8): ReLU (inplace = True)
    (9): ConvTranspose2d (128, 64, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (10): BatchNorm2d (64, eps = 1e-05, импульс = 0,1, affine = True, track_running_stats = True)
    (11): ReLU (inplace = True)
    (12): ConvTranspose2d (64, 3, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (13): Тань ()
  )
)
 

Дискриминатор

Как уже упоминалось, дискриминатор \ (D \) представляет собой двоичную классификацию сеть, которая принимает изображение на входе и выводит скалярную вероятность что входное изображение настоящее (в отличие от подделки).Здесь \ (D \) принимает входное изображение 3x64x64, обрабатывает его с помощью серии Conv2d, BatchNorm2d и LeakyReLU и выводит окончательную вероятность через функцию активации сигмовидной кишки. Эта архитектура может быть расширена с большим количеством слоев, если необходимо для проблемы, но есть значение к использованию последовательной свертки, BatchNorm и LeakyReLUs. В В документе DCGAN упоминается, что использование полосатой свертки является хорошей практикой. вместо объединения в субдискретизатор, потому что это позволяет сети изучить свой собственная функция пулинга.Кроме того, пакетная норма и функции дырявого relu способствуют здоровый градиентный поток, который имеет решающее значение для процесса обучения как \ (G \) и \ (D \).

Код дискриминатора

Дискриминатор класса
 (nn.Module):
    def __init __ (self, ngpu):
        super (Дискриминатор, сам) .__ init __ ()
        self.ngpu = ngpu
        self.main = nn.Sequential (
            # ввод (nc) x 64 x 64
            nn.Conv2d (nc, ndf, 4, 2, 1, bias = False),
            nn.LeakyReLU (0.2, inplace = True),
            # размер штата.(ndf) х 32 х 32
            nn.Conv2d (ndf, ndf * 2, 4, 2, 1, bias = False),
            nn.BatchNorm2d (ndf * 2),
            nn.LeakyReLU (0.2, inplace = True),
            # размер штата. (ndf * 2) х 16 х 16
            nn.Conv2d (ndf * 2, ndf * 4, 4, 2, 1, bias = False),
            nn.BatchNorm2d (ndf * 4),
            nn.LeakyReLU (0.2, inplace = True),
            # размер штата. (ndf * 4) х 8 х 8
            nn.Conv2d (ndf * 4, ndf * 8, 4, 2, 1, bias = False),
            nn.BatchNorm2d (ndf * 8),
            nn.LeakyReLU (0.2, inplace = True),
            # размер штата. (ndf * 8) х 4 х 4
            nn.Conv2d (ndf * 8, 1, 4, 1, 0, bias = False),
            nn.Sigmoid ()
        )

    def вперед (self, input):
        return self.main (ввод)
 

Теперь, как и в случае с генератором, мы можем создать дискриминатор, применить weights_init и распечатайте структуру модели.

 # Создать дискриминатор
netD = Дискриминатор (ngpu) .to (устройство)

# При желании обрабатывать multi-gpu
если (устройство.type == 'cuda') и (ngpu> 1):
    netD = nn.DataParallel (netD, список (диапазон (ngpu)))

# Применяем функцию weights_init для случайной инициализации всех весов
# означает = 0, stdev = 0.2.
netD.apply (weights_init)

# Распечатать модель
печать (netD)
 

Вышел:

 Дискриминатор (
  (основной): Последовательный (
    (0): Conv2d (3, 64, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (1): LeakyReLU (negative_slope = 0,2, inplace = True)
    (2): Conv2d (64, 128, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (3): BatchNorm2d (128, eps = 1e-05, импульс = 0.1, affine = True, track_running_stats = True)
    (4): LeakyReLU (negative_slope = 0,2, inplace = True)
    (5): Conv2d (128, 256, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (6): BatchNorm2d (256, eps = 1e-05, импульс = 0,1, affine = True, track_running_stats = True)
    (7): LeakyReLU (negative_slope = 0,2, inplace = True)
    (8): Conv2d (256, 512, размер_ядра = (4, 4), stride = (2, 2), padding = (1, 1), bias = False)
    (9): BatchNorm2d (512, eps = 1e-05, импульс = 0,1, affine = True, track_running_stats = True)
    (10): LeakyReLU (negative_slope = 0.\ top, \ quad l_n = - \ left [y_n \ cdot \ log x_n + (1 - y_n) \ cdot \ log (1 - x_n) \ right]

\] 

Обратите внимание, как эта функция обеспечивает вычисление обоих компонентов журнала. в целевой функции (т.е. \ (log (D (x)) \) и \ (журнал (1-D (G (z))) \)). Мы можем указать, какую часть уравнения BCE нужно использовать с входом \ (y \). Это выполняется в цикле обучения. который скоро появится, но важно понимать, как мы можем выберите, какой компонент мы хотим вычислить, просто изменив \ (y \) (я.е. Этикетки GT).

Затем мы определяем нашу настоящую метку как 1, а фальшивую как 0. метки будут использоваться при расчете потерь \ (D \) и \ (G \), и это также соглашение, используемое в исходной GAN бумага. Наконец, мы настроили два отдельных оптимизатора, один для \ (D \) и один для \ (G \). Как указано в документе DCGAN, оба являются Адамом оптимизаторы со скоростью обучения 0,0002 и Beta1 = 0,5. Для отслеживания прогресса обучения генератора, мы сгенерируем фиксированный пакет скрытых векторов, взятых из распределения Гаусса (я.е. fixed_noise). В цикле обучения мы будем периодически вводить этот фиксированный_шум в \ (G \), и на итерациях мы увидим изображения формируются из шума.

 # Инициализировать функцию BCELoss
критерий = nn.BCELoss ()

# Создать пакет скрытых векторов, которые мы будем использовать для визуализации
# прогрессия генератора
fixed_noise = torch.randn (64, nz, 1, 1, device = device)

# Установите условные обозначения для настоящих и поддельных этикеток во время обучения
real_label = 1.
fake_label = 0.

# Настройте оптимизаторы Adam для G и D
optimizerD = optim.Адам (netD.parameters (), lr = lr, beta = (beta1, 0.999))
optimizerG = optim.Adam (netG.parameters (), lr = lr, beta = (beta1, 0.999))
 

Обучение

Наконец, теперь, когда мы определили все части структуры GAN, мы можем тренировать это. Помните, что обучение GAN - это своего рода искусство. формы, так как неправильные настройки гиперпараметров приводят к коллапсу режима с небольшое объяснение того, что пошло не так. Здесь мы будем внимательно следить Алгоритм 1 из статьи Гудфеллоу, придерживаясь некоторых из лучших практики, показанные в ганхаках.А именно, мы будем «строить разные мини-партии под настоящие и подделки». изображения, а также отрегулируйте целевую функцию G, чтобы максимизировать \ (logD (G (z)) \). Обучение разделено на две основные части. Часть 1 обновляет Дискриминатор, а Часть 2 обновляет Генератор.

Часть 1 - Обучение дискриминатора

Напомним, цель обучения дискриминатора - максимизировать вероятность правильной классификации заданных входных данных как реальных или фальшивых. В По словам Гудфеллоу, мы хотим «обновить дискриминатор по возрастанию. его стохастический градиент ».Практически мы хотим максимизировать \ (журнал (D (x)) + журнал (1-D (G (z))) \). За счет отдельной мини-партии предложение от ganhacks, мы рассчитаем это в два этапа. Сначала мы построит пакет реальных образцов из обучающей выборки, вперед пройти через \ (D \), вычислить потерю (\ (log (D (x)) \)), затем вычислить градиенты при обратном проходе. Во-вторых, построим партия поддельных образцов с генератором тока, передайте это партия через \ (D \), вычислить потери (\ (log (1-D (G (z))) \)), и накапливают градиентов с обратным проходом.Теперь с градиенты, накопленные как из реальных, так и из поддельных партий, мы вызвать шаг оптимизатора Дискриминатора.

Часть 2 - Обучение генератора

Как указано в исходной статье, мы хотим обучить Генератор минимизация \ (log (1-D (G (z))) \) в целях создания лучших подделок. Как уже упоминалось, Гудфеллоу показал, что этого недостаточно. градиенты, особенно в начале процесса обучения. В качестве исправления мы вместо этого хотите максимизировать \ (log (D (G (z))) \).В коде мы выполняем это путем: классификации выхода генератора из части 1 с Дискриминатор, вычисление потери G с использованием реальных меток как GT , вычисление Градиенты G в обратном проходе и, наконец, обновление параметров G с шагом оптимизатора. Может показаться нелогичным использовать настоящие метки как метки GT для функции потерь, но это позволяет нам использовать \ (log (x) \) часть BCELoss (а не \ (log (1-x) \) part), что мы и хотим.

Наконец, мы сделаем статистическую отчетность, и в конце каждого эпоху, мы протолкнем наш пакет fixed_noise через генератор в визуально отслеживать прогресс тренировки G.Статистика тренировок сообщается:

  • Loss_D - потери дискриминатора рассчитываются как сумма потерь для все реальные и все поддельные партии (\ (log (D (x)) + log (1 - D (G (z))) \)).
  • Loss_G - потери генератора рассчитываются как \ (log (D (G (z))) \)
  • D (x) - средний выход (по партии) дискриминатора для всей реальной партии. Это должно начинаться с 1, затем теоретически сходятся к 0,5, когда G становится лучше. Подумайте, почему это.
  • D (G (z)) - средние выходы дискриминатора для всего поддельного пакета. Первое число перед обновлением D, а второе число - после обновления D. Эти числа должны начинаться с 0 и сходиться к 0,5, когда G становится лучше. Подумайте, почему это так.

Примечание: Этот шаг может занять некоторое время, в зависимости от того, сколько эпох вы запустить, и если вы удалили некоторые данные из набора данных.

 # Цикл обучения

# Списки для отслеживания прогресса
img_list = []
G_losses = []
D_losses = []
iters = 0

print ("Запуск цикла обучения... ")
# Для каждой эпохи
для эпохи в диапазоне (num_epochs):
    # Для каждого пакета в загрузчике данных
    для i данные в перечислении (загрузчик данных, 0):

        ###########################
        # (1) Обновить сеть D: увеличить журнал (D (x)) + журнал (1 - D (G (z)))
        ##########################
        ## Тренируйтесь с полностью реальной партией
        netD.zero_grad ()
        # Форматировать пакет
        real_cpu = данные [0] .to (устройство)
        b_size = real_cpu.size (0)
        label = torch.full ((b_size,), real_label, dtype = torch.float, device = device)
        # Прямая передача реальной партии через D
        output = netD (real_cpu) .view (-1)
        # Рассчитать потери для реальной партии
        errD_real = критерий (вывод, метка)
        # Рассчитываем градиенты для D при обратном проходе
        errD_real.backward ()
        D_x = output.mean (). Item ()

        ## Тренируйтесь с поддельной партией
        # Сгенерировать пакет скрытых векторов
        noise = torch.randn (b_size, nz, 1, 1, device = device)
        # Создание пакета поддельных изображений с помощью G
        fake = netG (шум)
        метка.fill_ (fake_label)
        # Классифицируйте все поддельные партии с помощью D
        output = netD (fake.detach ()). view (-1)
        # Рассчитать убыток D для полностью поддельной партии
        errD_fake = критерий (вывод, метка)
        # Вычислить градиенты для этого пакета, накопленные (суммированные) с предыдущими градиентами
        errD_fake.backward ()
        D_G_z1 = output.mean (). Item ()
        # Вычислить ошибку D как сумму над поддельной и реальной партиями
        errD = errD_real + errD_fake
        # Обновить D
        optimizerD.шаг()

        ###########################
        # (2) Обновить сеть G: увеличить журнал (D (G (z)))
        ##########################
        netG.zero_grad ()
        label.fill_ (real_label) # поддельные метки реальны по стоимости генератора
        # Поскольку мы только что обновили D, выполните еще один прямой проход полностью поддельного пакета через D
        output = netD (поддельный) .view (-1)
        # Рассчитать потери G на основе этого вывода
        errG = критерий (вывод, метка)
        # Рассчитываем градиенты для G
        errG.назад ()
        D_G_z2 = output.mean (). Item ()
        # Обновить G
        optimizerG.step ()

        # Вывод статистики тренировок
        если я% 50 == 0:
            print ('[% d /% d] [% d /% d] \ tLoss_D:% .4f \ tLoss_G:% .4f \ tD (x):% .4f \ tD (G (z)):% .4f /% .4f '
                  % (эпоха, num_epochs, i, len (загрузчик данных),
                     errD.item (), errG.item (), D_x, D_G_z1, D_G_z2))

        # Сохранить убытки для построения графика позже
        G_losses.append (errG.item ())
        D_losses.append (errD.item ())

        # Проверить, как работает генератор, сохранив вывод G на fixed_noise
        if (iters% 500 == 0) или ((epoch == num_epochs-1) and (i == len (dataloader) -1)):
            с факелом.no_grad ():
                fake = netG (фиксированный_шум) .detach (). cpu ()
            img_list.append (vutils.make_grid (поддельный, padding = 2, normalize = True))

        iters + = 1
 

Вышел:

 Запуск цикла обучения ...
[0/5] [0/1583] Loss_D: 2,0036 Loss_G: 5,6241 D (x): 0,5882 D (G (z)): 0,6680 / 0,0059
[0/5] [50/1583] Loss_D: 0,4017 Loss_G: 29,3061 D (x): 0,8416 D (G (z)): 0,0000 / 0,0000
[0/5] [100/1583] Loss_D: 0,4816 Loss_G: 6,0251 D (x): 0,8350 D (G (z)): 0,0124 / 0,0184
[0/5] [150/1583] Loss_D: 0.2277 Потери_G: 3,8022 D (x): 0,9269 D (G (z)): 0,1202 / 0,0492
[0/5] [200/1583] Loss_D: 0,5400 Loss_G: 3,8275 D (x): 0,7893 D (G (z)): 0,2022 / 0,0364
[0/5] [250/1583] Loss_D: 0,3170 Loss_G: 5,8323 D (x): 0,8597 D (G (z)): 0,1179 / 0,0062
[0/5] [300/1583] Loss_D: 0,7483 Loss_G: 5,2730 D (x): 0,6591 D (G (z)): 0,0167 / 0,0148
[0/5] [350/1583] Loss_D: 0,6047 Loss_G: 2,9358 D (x): 0,6818 D (G (z)): 0,0433 / 0,0966
[0/5] [400/1583] Loss_D: 0,6418 Loss_G: 4,5430 D (x): 0,8729 D (G (z)): 0,3379 / 0.0224
[0/5] [450/1583] Loss_D: 0,8565 Loss_G: 2,3526 D (x): 0,6073 D (G (z)): 0,1331 / 0,1319
[0/5] [500/1583] Loss_D: 0,5846 Loss_G: 4,9983 D (x): 0,7738 D (G (z)): 0,1739 / 0,0117
[0/5] [550/1583] Loss_D: 0,3538 Loss_G: 4,3271 D (x): 0,8124 D (G (z)): 0,0785 / 0,0234
[0/5] [600/1583] Loss_D: 0,7008 Loss_G: 7,5484 D (x): 0,5982 D (G (z)): 0,0026 / 0,0038
[0/5] [650/1583] Loss_D: 0,4744 Loss_G: 3,2670 D (x): 0,7922 D (G (z)): 0,1037 / 0,0733
[0/5] [700/1583] Loss_D: 0,4504 Loss_G: 4,9309 D (x): 0.7440 D (G (z)): 0,0223 / 0,0180
[0/5] [750/1583] Loss_D: 0,4027 Loss_G: 3,3199 D (x): 0,7737 D (G (z)): 0,0773 / 0,0582
[0/5] [800/1583] Loss_D: 1,1024 Loss_G: 7,2506 D (x): 0,9812 D (G (z)): 0,5447 / 0,0027
[0/5] [850/1583] Loss_D: 0,4796 Loss_G: 4,8715 D (x): 0,8605 D (G (z)): 0,2180 / 0,0170
[0/5] [900/1583] Loss_D: 0,4661 Loss_G: 3,0053 D (x): 0,7187 D (G (z)): 0,0467 / 0,0866
[0/5] [950/1583] Loss_D: 0,7518 Loss_G: 3,4152 D (x): 0,5994 D (G (z)): 0,0391 / 0,0657
[0/5] [1000/1583] Loss_D: 0.4943 Loss_G: 5,5188 D (x): 0,8810 D (G (z)): 0,2254 / 0,0134
[0/5] [1050/1583] Loss_D: 0,5179 Loss_G: 3,1087 D (x): 0,7276 D (G (z)): 0,1052 / 0,0741
[0/5] [1100/1583] Loss_D: 0,6139 Loss_G: 4,5758 D (x): 0,8608 D (G (z)): 0,2990 / 0,0214
[0/5] [1150/1583] Loss_D: 0,4753 Loss_G: 4,6744 D (x): 0,8477 D (G (z)): 0.2004 / 0,0186
[0/5] [1200/1583] Loss_D: 0,4619 Loss_G: 3,2213 D (x): 0,7852 D (G (z)): 0,127 / 0,0694
[0/5] [1250/1583] Loss_D: 0,6476 Loss_G: 6.4646 D (x): 0,8936 D (G (z)): 0,3419 / 0,0034
[0/5] [1300/1583] Loss_D: 0,5088 Loss_G: 5,9270 D (x): 0,9417 D (G (z)): 0,3198 / 0,0052
[0/5] [1350/1583] Loss_D: 0,8134 Loss_G: 5,4104 D (x): 0,8018 D (G (z)): 0,3595 / 0,0082
[0/5] [1400/1583] Loss_D: 2,4019 Loss_G: 3,1467 D (x): 0,2037 D (G (z)): 0,0031 / 0,0957
[0/5] [1450/1583] Loss_D: 0,6064 Loss_G: 2,8834 D (x): 0,6829 D (G (z)): 0,0930 / 0,0874
[0/5] [1500/1583] Loss_D: 0,9154 Loss_G: 1,9141 D (x): 0,5143 D (G (z)): 0.0272 / 0,2196
[0/5] [1550/1583] Loss_D: 0,8440 Loss_G: 2,3221 D (x): 0,6305 D (G (z)): 0,2079 / 0,1382
[1/5] [0/1583] Loss_D: 0,4939 Loss_G: 4,4775 D (x): 0,9461 D (G (z)): 0,3033 / 0,0207
[1/5] [50/1583] Loss_D: 0,4254 Loss_G: 4,2553 D (x): 0,8635 D (G (z)): 0,2067 / 0,0212
[1/5] [100/1583] Loss_D: 1,4839 Loss_G: 0,7523 D (x): 0,3427 D (G (z)): 0,0495 / 0,5243
[1/5] [150/1583] Loss_D: 0,3581 Loss_G: 4,2781 D (x): 0,8955 D (G (z)): 0,1877 / 0,0226
[1/5] [200/1583] Loss_D: 0,2898 Loss_G: 3.4719 D (x): 0,8489 D (G (z)): 0,0890 / 0,0480
[1/5] [250/1583] Loss_D: 0,3689 Loss_G: 3,7991 D (x): 0,8700 D (G (z)): 0,1738 / 0,0386
[1/5] [300/1583] Loss_D: 1,0293 Loss_G: 5,7885 D (x): 0,8963 D (G (z)): 0,5386 / 0,0064
[1/5] [350/1583] Loss_D: 0,4822 Loss_G: 3,4384 D (x): 0,8111 D (G (z)): 0,1785 / 0,0476
[1/5] [400/1583] Loss_D: 0,7664 Loss_G: 4,7033 D (x): 0,8929 D (G (z)): 0,4212 / 0,0169
[1/5] [450/1583] Loss_D: 0,5058 Loss_G: 4,2945 D (x): 0,8409 D (G (z)): 0,2430 / 0,0212
[1/5] [500/1583] Loss_D: 0.5970 Потери_G: 3,8799 D (x): 0,6431 D (G (z)): 0,0134 / 0,0506
[1/5] [550/1583] Loss_D: 0,4931 Loss_G: 2,9201 D (x): 0,6983 D (G (z)): 0,0323 / 0,0889
[1/5] [600/1583] Loss_D: 0,3948 Loss_G: 5,6183 D (x): 0,9121 D (G (z)): 0,2184 / 0,0082
[1/5] [650/1583] Loss_D: 0,4058 Loss_G: 3,2963 D (x): 0,8512 D (G (z)): 0,1721 / 0,0570
[1/5] [700/1583] Loss_D: 0,4223 Loss_G: 2,8456 D (x): 0,7879 D (G (z)): 0,1293 / 0,0824
[1/5] [750/1583] Loss_D: 1,6467 Loss_G: 0,8215 D (x): 0,3027 D (G (z)): 0,0235 / 0.5112
[1/5] [800/1583] Loss_D: 0,3192 Loss_G: 3,6751 D (x): 0,8384 D (G (z)): 0,1069 / 0,0391
[1/5] [850/1583] Loss_D: 2,2921 Loss_G: 0,4321 D (x): 0,1666 D (G (z)): 0,0015 / 0,7212
[1/5] [900/1583] Loss_D: 1,5961 Loss_G: 6,8182 D (x): 0,9378 D (G (z)): 0,7200 / 0,0042
[1/5] [950/1583] Loss_D: 0,7571 Loss_G: 2,4249 D (x): 0,6189 D (G (z)): 0,0906 / 0,1439
[1/5] [1000/1583] Loss_D: 1,0946 Loss_G: 4,2664 D (x): 0,8031 D (G (z)): 0,4656 / 0,0284
[1/5] [1050/1583] Loss_D: 0,5630 Loss_G: 2.4674 D (x): 0,7025 D (G (z)): 0,0974 / 0,1241
[1/5] [1100/1583] Loss_D: 0,4910 Loss_G: 2,2836 D (x): 0,7397 D (G (z)): 0,1237 / 0,1423
[1/5] [1150/1583] Loss_D: 0,5135 Loss_G: 2,6078 D (x): 0,8085 D (G (z)): 0,1984 / 0,1033
[1/5] [1200/1583] Loss_D: 0,8394 Loss_G: 4,0788 D (x): 0,9358 D (G (z)): 0,4674 / 0,0345
[1/5] [1250/1583] Loss_D: 0,3328 Loss_G: 3,4985 D (x): 0,8766 D (G (z)): 0,1581 / 0,0441
[1/5] [1300/1583] Loss_D: 0,4798 Loss_G: 3,4309 D (x): 0,8249 D (G (z)): 0.1967 / 0,0557
[1/5] [1350/1583] Loss_D: 0,4684 Loss_G: 2,2244 D (x): 0,7433 D (G (z)): 0,1038 / 0,1507
[1/5] [1400/1583] Loss_D: 0,4759 Loss_G: 2,6483 D (x): 0,7478 D (G (z)): 0,1131 / 0,1035
[1/5] [1450/1583] Loss_D: 0,2946 Loss_G: 3,3314 D (x): 0,8437 D (G (z)): 0,1000 / 0,0510
[1/5] [1500/1583] Loss_D: 0,9316 Loss_G: 4,8833 D (x): 0,9289 D (G (z)): 0,4997 / 0,0131
[1/5] [1550/1583] Loss_D: 0,6566 Loss_G: 1,9025 D (x): 0,6789 D (G (z)): 0,1606 / 0,1960
[2/5] [0/1583] Loss_D: 1.3964 Loss_G: 0,8117 D (x): 0,3370 D (G (z)): 0,0248 / 0,5183
[2/5] [50/1583] Loss_D: 1.1112 Loss_G: 5,5710 D (x): 0,9674 D (G (z)): 0,5910 / 0,0071
[2/5] [100/1583] Loss_D: 0,6288 Loss_G: 4,3092 D (x): 0,8904 D (G (z)): 0,3547 / 0,0214
[2/5] [150/1583] Loss_D: 0,5043 Loss_G: 3,7217 D (x): 0,9038 D (G (z)): 0,3018 / 0,0347
[2/5] [200/1583] Loss_D: 0,6040 Loss_G: 3,4518 D (x): 0,8611 D (G (z)): 0,3265 / 0,0434
[2/5] [250/1583] Loss_D: 0,5579 Loss_G: 2,4019 D (x): 0,7451 D (G (z)): 0,1764 / 0.1232
[2/5] [300/1583] Loss_D: 0,6892 Loss_G: 3,4138 D (x): 0,8008 D (G (z)): 0,3190 / 0,0495
[2/5] [350/1583] Loss_D: 0,5760 Loss_G: 2,4695 D (x): 0,7681 D (G (z)): 0,2202 / 0,1097
[2/5] [400/1583] Loss_D: 0,8072 Loss_G: 2,0747 D (x): 0,6636 D (G (z)): 0,2456 / 0,1648
[2/5] [450/1583] Loss_D: 0,4863 Loss_G: 2,8394 D (x): 0,8389 D (G (z)): 0,2339 / 0,0785
[2/5] [500/1583] Loss_D: 0,3900 Loss_G: 2,9180 D (x): 0,8503 D (G (z)): 0,1754 / 0,0686
[2/5] [550/1583] Loss_D: 0,4908 Loss_G: 3,2809 D (x): 0.8314 D (G (z)): 0,2365 / 0,0528
[2/5] [600/1583] Loss_D: 0,6857 Loss_G: 2,5456 D (x): 0,7920 D (G (z)): 0,3064 / 0,1099
[2/5] [650/1583] Loss_D: 0,6624 Loss_G: 2,0445 D (x): 0,6750 D (G (z)): 0,1882 / 0,1664
[2/5] [700/1583] Loss_D: 0,4440 Loss_G: 2,6007 D (x): 0,8196 D (G (z)): 0,1890 / 0,1000
[2/5] [750/1583] Loss_D: 0,5925 Loss_G: 2,4552 D (x): 0,7246 D (G (z)): 0,1949 / 0,1130
[2/5] [800/1583] Loss_D: 0,8061 Loss_G: 1,1014 D (x): 0,5645 D (G (z)): 0,1249 / 0,3799
[2/5] [850/1583] Loss_D: 0.5741 Loss_G: 2,9594 D (x): 0,8114 D (G (z)): 0,2691 / 0,0693
[2/5] [900/1583] Loss_D: 1,5721 Loss_G: 4,9029 D (x): 0,9319 D (G (z)): 0,6928 / 0,0144
[2/5] [950/1583] Loss_D: 0,7039 Loss_G: 1,5437 D (x): 0,6480 D (G (z)): 0,1766 / 0,2579
[2/5] [1000/1583] Loss_D: 0,7000 Loss_G: 2,7707 D (x): 0,8526 D (G (z)): 0,3749 / 0,0791
[2/5] [1050/1583] Loss_D: 1,3643 Loss_G: 4,4378 D (x): 0,8938 D (G (z)): 0,6420 / 0,0182
[2/5] [1100/1583] Loss_D: 0,6044 Loss_G: 2,8035 D (x): 0,8172 D (G (z)): 0.2924 / 0,0828
[2/5] [1150/1583] Loss_D: 0,7663 Loss_G: 3,4807 D (x): 0,8891 D (G (z)): 0,4313 / 0,0430
[2/5] [1200/1583] Loss_D: 0,4603 Loss_G: 2,6997 D (x): 0,7983 D (G (z)): 0,1768 / 0,0901
[2/5] [1250/1583] Loss_D: 0,6470 Loss_G: 1,8120 D (x): 0,6034 D (G (z)): 0,0757 / 0,2075
[2/5] [1300/1583] Loss_D: 1,2058 Loss_G: 4,6996 D (x): 0,8754 D (G (z)): 0,6093 / 0,0133
[2/5] [1350/1583] Loss_D: 0,7486 Loss_G: 2,2121 D (x): 0,7299 D (G (z)): 0,3037 / 0,1451
[2/5] [1400/1583] Loss_D: 0.7068 Потери_G: 3,51 10 D (x): 0,8625 D (G (z)): 0,3882 / 0,0380
[2/5] [1450/1583] Loss_D: 0,5626 Loss_G: 3,3974 D (x): 0,8895 D (G (z)): 0,3189 / 0,0454
[2/5] [1500/1583] Loss_D: 0,5408 Loss_G: 2,3834 D (x): 0,8134 D (G (z)): 0,2545 / 0,1136
[2/5] [1550/1583] Loss_D: 0,6539 Loss_G: 2,0238 D (x): 0,6954 D (G (z)): 0,2043 / 0,1694
[3/5] [0/1583] Loss_D: 0,5198 Loss_G: 2,1386 D (x): 0,6844 D (G (z)): 0,0938 / 0,1580
[3/5] [50/1583] Loss_D: 0,7341 Loss_G: 1,4617 D (x): 0,6535 D (G (z)): 0.1983 / 0,2744
[3/5] [100/1583] Loss_D: 0,8526 Loss_G: 2,0105 D (x): 0,6096 D (G (z)): 0,2228 / 0,1756
[3/5] [150/1583] Loss_D: 0,7331 Loss_G: 2,6831 D (x): 0,7610 D (G (z)): 0,3128 / 0,0893
[3/5] [200/1583] Loss_D: 0,5806 Loss_G: 1,7968 D (x): 0,7068 D (G (z)): 0,1670 / 0,1991
[3/5] [250/1583] Loss_D: 0,5409 Loss_G: 2,8793 D (x): 0,8868 D (G (z)): 0,3142 / 0,0742
[3/5] [300/1583] Loss_D: 0,6950 Loss_G: 1,5093 D (x): 0,6394 D (G (z)): 0,1609 / 0,2692
[3/5] [350/1583] Loss_D: 0,6397 Loss_G: 2.5371 D (x): 0,8446 D (G (z)): 0,3451 / 0,0963
[3/5] [400/1583] Loss_D: 0,6109 Loss_G: 1,9331 D (x): 0,6283 D (G (z)): 0,0703 / 0,1937
[3/5] [450/1583] Loss_D: 0,8714 Loss_G: 3,9065 D (x): 0,8538 D (G (z)): 0,4572 / 0,0275
[3/5] [500/1583] Loss_D: 0,6476 Loss_G: 1,6723 D (x): 0,7244 D (G (z)): 0,2351 / 0,2203
[3/5] [550/1583] Loss_D: 1,8250 Loss_G: 5,2458 D (x): 0,9385 D (G (z)): 0,7803 / 0,0096
[3/5] [600/1583] Loss_D: 0,6424 Loss_G: 1,8041 D (x): 0,6584 D (G (z)): 0,1413 / 0,1989
[3/5] [650/1583] Loss_D: 0.6175 Loss_G: 2,0338 D (x): 0,6414 D (G (z)): 0,1045 / 0,1734
[3/5] [700/1583] Loss_D: 0,5876 Loss_G: 2,3245 ​​D (x): 0,7775 D (G (z)): 0,2537 / 0,1248
[3/5] [750/1583] Loss_D: 0,8811 Loss_G: 4,2971 D (x): 0,9404 D (G (z)): 0,5134 / 0,0216
[3/5] [800/1583] Loss_D: 0,6739 Loss_G: 2,8126 D (x): 0,8440 D (G (z)): 0,3468 / 0,0846
[3/5] [850/1583] Loss_D: 0,5911 Loss_G: 1,9666 D (x): 0,7348 D (G (z)): 0,2160 / 0,1722
[3/5] [900/1583] Loss_D: 0,6297 Loss_G: 1,8840 D (x): 0,6939 D (G (z)): 0,1823 / 0.1800
[3/5] [950/1583] Loss_D: 0,6564 Loss_G: 2,5981 D (x): 0,7908 D (G (z)): 0,3045 / 0,0941
[3/5] [1000/1583] Loss_D: 0,7225 Loss_G: 2,1030 D (x): 0,6416 D (G (z)): 0,1666 / 0,1730
[3/5] [1050/1583] Loss_D: 0,7501 Loss_G: 1,3030 D (x): 0,6187 D (G (z)): 0,1768 / 0,3171
[3/5] [1100/1583] Loss_D: 0,6917 Loss_G: 2,3040 D (x): 0,8176 D (G (z)): 0,3436 / 0,1246
[3/5] [1150/1583] Loss_D: 1,1089 Loss_G: 0,7897 D (x): 0,3967 D (G (z)): 0,0562 / 0,5134
[3/5] [1200/1583] Loss_D: 0.6393 Loss_G: 1,3142 D (x): 0,6313 D (G (z)): 0,1168 / 0,3023
[3/5] [1250/1583] Loss_D: 0,5803 Loss_G: 2,0294 D (x): 0,7083 D (G (z)): 0,1625 / 0,1680
[3/5] [1300/1583] Loss_D: 0,6283 Loss_G: 2,2429 D (x): 0,6765 D (G (z)): 0,1650 / 0,1395
[3/5] [1350/1583] Loss_D: 0,6958 Loss_G: 1,5314 D (x): 0,6534 D (G (z)): 0,1818 / 0,2564
[3/5] [1400/1583] Loss_D: 0,6391 Loss_G: 2,1903 D (x): 0,7228 D (G (z)): 0,2234 / 0,1431
[3/5] [1450/1583] Loss_D: 0,8477 Loss_G: 0.8848 D (x): 0,5059 D (G (z)): 0,0645 / 0,4688
[3/5] [1500/1583] Loss_D: 0,6590 Loss_G: 2,8699 D (x): 0,8431 D (G (z)): 0,3439 / 0,0787
[3/5] [1550/1583] Loss_D: 0,5686 Loss_G: 1,6909 D (x): 0,7363 D (G (z)): 0,1939 / 0,2182
[4/5] [0/1583] Loss_D: 0,7629 Loss_G: 3,3521 D (x): 0,8821 D (G (z)): 0,4219 / 0,0477
[4/5] [50/1583] Loss_D: 1,2112 Loss_G: 4,4579 D (x): 0,9459 D (G (z)): 0,6307 / 0,0206
[4/5] [100/1583] Loss_D: 1,1740 Loss_G: 0,2933 D (x): 0,3955 D (G (z)): 0,0552 / 0.7675
[4/5] [150/1583] Loss_D: 0,6892 Loss_G: 2,2337 D (x): 0,6539 D (G (z)): 0,1838 / 0,1377
[4/5] [200/1583] Loss_D: 1,5520 Loss_G: 4,9921 D (x): 0,9426 D (G (z)): 0,7210 / 0,0112
[4/5] [250/1583] Loss_D: 0,9878 Loss_G: 3,1926 D (x): 0,8742 D (G (z)): 0,5089 / 0,0591
[4/5] [300/1583] Loss_D: 0,6414 Loss_G: 1,5396 D (x): 0,6460 D (G (z)): 0,1483 / 0,2559
[4/5] [350/1583] Loss_D: 0,6759 Loss_G: 1,6052 D (x): 0,6697 D (G (z)): 0,1739 / 0,2387
[4/5] [400/1583] Loss_D: 0,7116 Loss_G: 3,1252 D (x): 0.8642 D (G (z)): 0,3997 / 0,0553
[4/5] [450/1583] Loss_D: 0,5220 Loss_G: 2,6178 D (x): 0,7840 D (G (z)): 0,2154 / 0,0968
[4/5] [500/1583] Loss_D: 0,6115 Loss_G: 2,1015 D (x): 0,7343 D (G (z)): 0,2098 / 0,1590
[4/5] [550/1583] Loss_D: 1,3594 Loss_G: 3,8038 D (x): 0,8445 D (G (z)): 0,6197 / 0,0361
[4/5] [600/1583] Loss_D: 0,6954 Loss_G: 2,4080 D (x): 0,7530 D (G (z)): 0,2948 / 0,1124
[4/5] [650/1583] Loss_D: 0,4729 Loss_G: 1,9364 D (x): 0,7600 D (G (z)): 0,1459 / 0,1760
[4/5] [700/1583] Loss_D: 0.6615 Loss_G: 2,0966 D (x): 0,6646 D (G (z)): 0,1753 / 0,1528
[4/5] [750/1583] Loss_D: 0,6051 Loss_G: 2,9685 D (x): 0,8377 D (G (z)): 0,3057 / 0,0698
[4/5] [800/1583] Loss_D: 1,2542 Loss_G: 0,5964 D (x): 0,3524 D (G (z)): 0,0378 / 0,5989
[4/5] [850/1583] Loss_D: 0,6670 Loss_G: 2,1152 D (x): 0,6846 D (G (z)): 0,1959 / 0,1517
[4/5] [900/1583] Loss_D: 1,9754 Loss_G: 5,6796 D (x): 0,9602 D (G (z)): 0,7907 / 0,0064
[4/5] [950/1583] Loss_D: 0,7934 Loss_G: 3,9288 D (x): 0,9077 D (G (z)): 0,4599 / 0.0288
[4/5] [1000/1583] Loss_D: 1,1706 Loss_G: 2,7895 D (x): 0,8065 D (G (z)): 0,5476 / 0,0902
[4/5] [1050/1583] Loss_D: 0,4881 Loss_G: 2,3234 D (x): 0,7834 D (G (z)): 0,1894 / 0,1267
[4/5] [1100/1583] Loss_D: 0,5915 Loss_G: 2,8567 D (x): 0,8760 D (G (z)): 0,3297 / 0,0720
[4/5] [1150/1583] Loss_D: 0,6192 Loss_G: 2,1700 D (x): 0,7624 D (G (z)): 0,2458 / 0,1429
[4/5] [1200/1583] Loss_D: 0,7212 Loss_G: 4,3505 D (x): 0,9243 D (G (z)): 0,4435 / 0,0183
[4/5] [1250/1583] Loss_D: 0.6585 Loss_G: 1,6613 D (x): 0,5892 D (G (z)): 0,0633 / 0,2347
[4/5] [1300/1583] Loss_D: 0,4058 Loss_G: 2,2434 D (x): 0,8321 D (G (z)): 0,1762 / 0,1310
[4/5] [1350/1583] Loss_D: 0,6326 Loss_G: 2,4029 D (x): 0,8080 D (G (z)): 0,3038 / 0,1162
[4/5] [1400/1583] Loss_D: 0,5332 Loss_G: 2,1616 D (x): 0,7447 D (G (z)): 0,1801 / 0,1447
[4/5] [1450/1583] Loss_D: 0,6374 Loss_G: 1,2981 D (x): 0,6937 D (G (z)): 0,1880 / 0,3080
[4/5] [1500/1583] Loss_D: 0,6931 Loss_G: 1.6255 D (x): 0,6683 D (G (z)): 0,2032 / 0,2296
[4/5] [1550/1583] Loss_D: 0,5664 Loss_G: 2,4322 D (x): 0,7429 D (G (z)): 0,1977 / 0,1202
 

Результаты

Наконец, давайте посмотрим, как мы это сделали. Здесь мы рассмотрим три разные результаты. Сначала посмотрим, как изменились потери D и G. во время тренировки. Во-вторых, мы визуализируем вывод G на fixed_noise партия для каждой эпохи. И в-третьих, мы рассмотрим набор реальных данных. рядом с партией фальшивых данных от

г.

Потери по сравнению с итерацией обучения

Ниже приведен график потерь D&G в зависимости от итераций обучения.

 plt. Рисунок (figsize = (10,5))
plt.title («Потеря генератора и дискриминатора во время обучения»)
plt.plot (G_losses, label = "G")
plt.plot (D_losses, label = "D")
plt.xlabel ("итерации")
plt.ylabel («Потеря»)
plt.legend ()
plt.show ()
 

Визуализация прогресса G

Помните, как мы сохранили выходной сигнал генератора в пакете fixed_noise после каждой эпохи обучения. Теперь мы можем визуализировать обучение прогрессия G с анимацией. Нажмите кнопку воспроизведения, чтобы начать анимация.

 # %% захват
fig = plt.figure (figsize = (8,8))
plt.axis ("выключено")
ims = [[plt.imshow (np.transpose (i, (1,2,0)), animated = True)] для i в img_list]
ani = animation.ArtistAnimation (fig, ims, interval = 1000, repeat_delay = 1000, blit = True)

HTML (ani.to_jshtml ())
 

Реальные изображения и поддельные изображения

Наконец, давайте посмотрим на несколько реальных и поддельных изображений. боковая сторона.

 # Получите пакет реальных изображений из загрузчика данных
real_batch = следующий (iter (загрузчик данных))  # Постройте реальные изображения
plt.рисунок (figsize = (15,15))
plt.subplot (1,2,1)
plt.axis ("выключено")
plt.title («Настоящие изображения»)
plt.imshow (np.transpose (vutils.make_grid (real_batch [0] .to (устройство) [: 64], padding = 5, normalize = True) .cpu (), (1,2,0)))  # Постройте поддельные изображения из последней эпохи
plt.

Author:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *