>>3580156
Учили-то нейросеть на огромной куче самых разных картинок, просто глюкогенератор так устроен. Те образы, которые при генерации появляются первыми, они и растут быстрее других и не оставляют им шанса. Остальным образам просто не остаётся шансов. Случайно так оказалось, что с точки зрения этой нейросети случайный шум больше похож на собак, птиц и насекомых, вон они и забивают всё остальное. Даже вчера попробовал самые быстрорастущие параметры занулять - и всё равно полезли собаки и насекомые, только чуть-чуть другие, лол. Почему, Сырно непонимат.
>>3579986>>3579734
И обучается нейросеть таким же градиентным спуском, только при этом оптимизируем не входное изображение, а параметры сети.
Сырно объяснят: нейросеть - это такой волшебный чёрный ящик. С одной стороны в него засовывают картинку как в ведро, с другой стороны вылазит ответ: "инфа 97% - свёкла, 1% - ведро" и т. д. Сбоку у этого ящика есть много-много крутилок (параметров). И если эти крутилки правильно настроить, то можно научить сеть давать правильные ответы. У сабжевой сети этих крутилок аж несколько миллионов, потому что она очень крутая. Осталось только взять их все и настроить. Делается это так: показываем нейросети фотографию свёклы и хитрым способом вычисляем, какие крутилки надо в какую сторону подкрутить, чтобы сеть нам дала ответ "это 100% свёкла!" На языке фей это называется "посчитать градиент функции потерь относительно парамтеров сети". "Функция потерь" - это просто такое число, которое нам говорит, насколько часто сеть ошибается (чем меньше, тем лучше). "Градиент" - это направление, в какую сторону чего крутить, чтобы ошибок было меньше. "Обратное распространение ошибки" - это просто такой алгоритм, который считает градиент функции потерь (направление, куда крутить, чтобы сеть реже ошибалась). "Градиентный спуск" - это и есть тот процесс подстройки параметров: посчитаем, куда крутить, и слегка подкрутим. Ответ сети чуть-чуть улучшится. Потом посчитаем ещё раз, и ещё слегка подкрутим. И так много-много раз для многа-многа миллионов картинок. И нейросеть такая медленно но верно учится узнавать свёклу, овощи, булочки, котов, девочек-волшебниц, вёдра, баки пластиковые и вообще всё, что было на картинках. >>3580131 Причём, по не совсем ясным причинам, большим нейросетям эти локальные минимумы и не мешают-то особо, и тупой градиентный спуск почему-то работает. Почему - загадка.