[d | an-b-bro-fr-gf-hr-l-m-maid-med-mi-mu-ne-o-old_o-p-ph-r-s-sci-sp-t-tran-tv-w-x | bg-vg | au-mo-tr | a-aa-abe-azu-c-dn-fi-hau-jp-ls-ma-me-rm-sos-tan-to-vn | misc-tenma-vndev | dev-stat]
[Burichan] [Futaba] [Gurochan] [Tomorrow] [Архив-Каталог-RSS] [Главная]

Файл: -(79 KB, 680x422)
79 No.3575086  

Гугл выложил исходники своего генератора глюков.

https://github.com/google/deepdream/blob/master/dream.ipynb

>> No.3575091  
Файл: -(133 KB, 720x712)
133
>> No.3575096   удалён

Как в ведро.

>> No.3575100  

Да это же просто праздник какой-то!

>> No.3575116  
Файл: -(397 KB, 1302x1124)
397

Наступает время плохой Хинамизавы.

>> No.3575126  
Файл: -(2 KB, 97x97)
2

>>3575091
У меня FINAL SANTA от этого.

>> No.3575131  
Файл: -(86 KB, 720x480)
86

Сырны, мне страшно.

>> No.3575135  
Файл: -(102 KB, 720x480)
102

Оно прогрессирует.

>> No.3575154  
Файл: -(40 KB, 480x360)
40
>> No.3575214  

У меня кофе случилось от этого.

>> No.3575233  

Брат умер, пишу с кофемолки.

>> No.3575238  

>>3575131 >>3575135
Ловите наркоманов!

>> No.3575253  

А как его запускать? Там такая страшная инструкция, на этом гитхабе...

>> No.3575269  
Файл: -(340 KB, 1298x885)
340

>>3575253
Там нужно только собрать http://caffe.berkeleyvision.org/, дальше просто запускаешь ipython dream.ipynb и играешь до синих глюков.

>> No.3575359  
Файл: -(99 KB, 1024x576)
99

Весело.

>> No.3575591  
Файл: -(20 KB, 234x221)
20

>>3575253
>>3575269
http://deepdreams.zainshah.net/ вот онлайн версия. Только серв загружен и может долго обрабатывать картинку.

>> No.3575596  
Файл: -(35 KB, 453x435)
35

>>3575591
И загружается он тоже долго.

>> No.3575711  
Файл: -(205 KB, 1024x682)
205
>> No.3576813  

Почему этот тред потонул?

>> No.3576912  

>>3576813
Потому, что ещё есть парочка таких-же.

>> No.3576987  

>>3575591
А есть альтернативная версия? У меня этот сайт вообще не грузится.

>> No.3576991  
Файл: -(298 KB, 1024x768)
298

Всё есмъ пёсики.

>> No.3576995  
Файл: -(538 KB, 460x480)
538
>> No.3577003  
Файл: -(235 KB, 660x1002)
235
>> No.3577013  
Файл: -(185 KB, 1200x630)
185

Половинка пончика.
Читал когда-то, что всё наше восприятие передаётся по наследству. Вплоть до того, что цветок это цветок и ни что иное. А вдруг, если отбросить рамки и границы, то там будут вот такие вот пончики?

>> No.3577016  
Файл: -(106 KB, 700x560)
106
>> No.3577019  
Файл: -(182 KB, 1024x725)
182
>> No.3577024  
Файл: -(90 KB, 800x600)
90
>> No.3577025  
Файл: -(225 KB, 684x915)
225
>> No.3577031  
Файл: -(196 KB, 1024x1007)
196

http://johan-nordberg.com/deepdreams/noisedive1-preview.mp4

>> No.3577043  
Файл: -(268 KB, 1333x1000)
268
>> No.3577054  
Файл: -(108 KB, 540x960)
108
>> No.3577062  
Файл: -(56 KB, 600x437)
56
>> No.3577066  
Файл: -(124 KB, 1024x576)
124
>> No.3577074  
Файл: -(257 KB, 1600x900)
257
>> No.3577087  

>>3577074
Пёсики апокалипсиса.

>> No.3577090  

>>3576987
Бамп вопросу. С тем, что на гитхабе, я не понимаю, что делать, а порисовать такие картинки хочется.

>> No.3577093  

>>3577090
Можно бесконечно обновлять страницу.
Один раз получилось, но после загрузки картинки вылетела ошибка.

>> No.3577094  
Файл: -(146 KB, 777x1024)
146
>> No.3577095  

>>3577043
Почти годно. Почти. Ты был близко, но эти чёртовы лица собак всё портят.

>> No.3577097  
Файл: -(146 KB, 768x1024)
146

>>3577095
Ничего ви не понимаете.

>> No.3577131  
Файл: -(431 KB, 1280x1014)
431
>> No.3577135  

>>3577066
Почему я тут вижу глупую собаку?

>> No.3577140  
Файл: -(81 KB, 500x568)
81

>>3577135
Но тут на каждой картинке глупые собаки. :3

>> No.3577142  

>>3577131
Ого, всё превратилось в улиточный автомобильный парк. Крутолол.

>> No.3577143  

>>3577140
На нижнем левом фрейме собака-улыбака.

>> No.3577146  

>>3577140
Обалдеть! Вы научили программу ловить такие же глюки, как я тогда.
Ну может и не вы, но человечество до этого дошло.
Мне тогда мерещились груди, вагины, страшные оскалы и черепа.
Тогда я понял, что такое паническая атака. А теперь у меня флешбек из-за этого

>> No.3577149  
Файл: -(153 KB, 1000x915)
153

>>3577146
Да, уж лучше пёсики и глаза, чем груди и вагины.

>> No.3577155  

>>3577149

>непристойность

А где так можно генерить?

>> No.3577168  

>>3577155
У этого няши >>3577146 в голове.

>> No.3577182  

Это похлеще чем Босх.

>> No.3577255  
Файл: -(127 KB, 800x603)
127

Одна девочка случайно с нейросетями и как в ведро.

https://www.youtube.com/watch?v=sICAqCUeSZQ

>> No.3577322  

>>3577255
Фракталы всё равно круче.
https://www.youtube.com/watch?v=VDMgmZOzZTo

>> No.3577347  
Файл: -(297 KB, 1024x768)
297

>>3577322
Вот тебе и фракталы
https://plus.google.com/u/0/photos/114528333040904620661/albums/6166894856430445137

>> No.3577363  
Файл: -(58 KB, 506x494)
58
>> No.3577409  
Файл: -(91 KB, 590x775)
91
>> No.3577421  
Файл: -(437 KB, 1343x552)
437

Ого, заработало впервые за сутки.

>> No.3577424  
Файл: -(4 KB, 430x321)
4

А нет, показалось.

>> No.3577437  

А откуда у гугла генератор глюков?

>> No.3577450  

>>3577437
Империя зла же. Наверняка и не такое имеется.

>> No.3577455  
Файл: -(75 KB, 536x600)
75

Опять двойка. Прям Климт какой-то.

>> No.3577456  

>>3577437
Половина мировых специалистов по нейросетям работает в Гугле.

>> No.3577457  
Файл: -(885 KB, 1000x1200)
885

Кто-нибудь, подалуйста поделись training set'ом от ILSVRC.

>> No.3577468  

>>3577456
Они это для удовольствия писали? Тогда почему код только теперь открыли, а не сразу? Какую пользу этот алгоритм приносил кампании?

>> No.3577469  

>>3577457
Зарегься на http://image-net.org/ и скачай же.

>> No.3577474  

>>3577468
Алгоритм там - градиентный спуск, где целевая функция - евклидова норма от выхлопа какого-нибудь слоя нейронной сети. А сети они обучали чтоб картинки классифицировать.

>> No.3577476  

>>3577469
Там пишут >Please provide your email address at the organization you are affiliated with, for example, yourname@princeton.edu. We will not approve requests based on freely available email addresses such as gmail, hotmail, etc.

А у меня только гугломейл и есть.

>> No.3577481  

>>3577476
Еще мне Мод-тян может выделить email вида cirno@iichan.hk, тогда я, пожалуй, прокачу за исследователя там.

>> No.3577495  

>>3577455
Мать от горя с младшеньким аж во внедорожник трансформироваться пытается.

>> No.3577496  
Файл: -(222 KB, 492x391)
222

>>3577468
Изначально такие штуки придумываали, чтобы визуализировать работу нейросетей и смотреть, как они видят мир. А недавно до одних чуваков из гугла дошло, что можно просто генерировать весёлые картинки и залипать.

>> No.3577510  

>>3577474

> градиентный спуск

>>3577496
Откуда вы это знаете? При каких обстоятельствах узнали?

>> No.3577512  

>>3577510

> градиентный спуск

https://github.com/google/deepdream/blob/master/dream.ipynb

>Making the "dream" images is very simple. Essentially it is just a gradient ascent process that tries to maximize the L2 norm of activations of a particular DNN layer.

Или можно еще посмотреть в код там, чтобы узнать это.

>> No.3577513  

>>3577496

Кстати довольно любопытный эксперимент, очень похоже на эффекты, когда смотришь на узорчатую стенку и видишь там всякие морды, а тут скрипт сам за тебя эти морды додумывает.

>> No.3577515  

>>3577512
А раньше ты знал об этом? Где тебе удалось услышать про градиентный спуск и все эти штуки погромисткие?

>> No.3577517  

>>3577515
На мехмате.

>> No.3577519  

>>3577517
И ты на самом деле всем этим интересовался и вникал во все подробности?

>> No.3577523  

>>3577519
Ну такие базовые вещи проходят на 1-2 курсе на всех технических специальностях, я думаю.

>> No.3577524  

>>3577523
А курс нейросетей вообще есть в колледже информатики при НГУ, например.

>> No.3577525  

>>3577523
Но это ведь не просто связать с программами. Или ты не до конца понимаешь принцип работы?

>> No.3577527  

>>3577525
Что не просто связать с программами?

>> No.3577528  

>>3577527
Этот ваш градиент и нейронные сети.

>> No.3577530  

>>3577528
Ты вообще о чём? Что ты имеешь в виду под "связать с программами"?

>> No.3577531  

>>3577528
Для это этого есть практические занятия, где студенты реализуют пройденные на лекциях/семинарах методы, в том числе решают задачки на оптимизацию.

>> No.3577534  

>>3577531
Ого, нужно не прогуливать.

>> No.3577544  

>>3577531
У нас их не было, например.
И лекции про машинное зрение никто не читал.
И метод градиентного спуска рассматривался на лекциях только в контексте примеров "давайте представим, что мы запускаем баллистическую ракету".

>> No.3577548  

>>3577544
А вычметоды были?

>> No.3577556  

>>3577544
Совершенно не важно, на каком примере рассматривать градиентный спуск. Меня поражает порой тупоголовость вот таких "а нас не учили". Всему вас учили, балбесы, если б вы ещё слушали…

Справедливости ради надо отметить, что к технологии, на которой основан оригинальный блог-пост большинство университетских курсов по нейронным сетям имеет мало отношения. RNN и прочий Deep Learning это такая магия, про которую никто толком ничего сам не знает и потому её нигде и не преподают, только так, упоминают, что такое бывает. Но такие базовые вещи как градиентный спуск/отжиг/back-propagation преподают практически везде, что разве не филологам. И понять, откуда берутся такие картинки этого знания вполне хватает.

>> No.3577562  

>>3577556
А вот основы дифференцирования и интегрирования ты хорошо помнишь? Не в общих чертах, а так, чтобы от зубов отлетало. Чтобы никаких несоответствий?

>> No.3577564  

>>3577562
Дифференцирование — да, там же очень простой набор правил. Интегрирование — нет, да и никогда оно у меня "от зубов не отскакивало". Не сказать, что я очень от этого переживаю — принцип мне понятен, а вычислять интегралы вручную мне как-то не приходится. Иногда у меня возникает мысль, что можно было бы прорешать сколько-то задачек из Демидовича, чисто так, для галочки, "чтоб уметь", но обычно находится развлечение поинтересней.

>> No.3577566  
Файл: -(76 KB, 450x500)
76

А теория меры входит у вас в основы интегрирования?

>> No.3577574  
Файл: -(44 KB, 807x454)
44

>>3577564
Так значит ты такой же, как и все смертные? Я подумал, что на ычане постоянно собираются всякие вундеркинды, а я всё забываю самые основы да так накрепко, что штудирую заново всё.

>> No.3577579  

>>3577574
У меня иногда тоже появляется такое ощущение, но потом я вспоминаю, что это просто я не очень умный, и всё встаёт на свои места.

>> No.3577584  

>>3577579
Но это ведь ты понял, как делается та штука с собаками глючными. А ты знаешь, как работает фотошоп, который удаляет допустим гору и заполняет ее вполне себе реалистичными облаками?

>> No.3577599  

>>3577574
Нет, я совершенно не такой же как все смертные. Но интегрировать я действительно не умею и не стесняюсь этого (хотя когда-то стеснялся). А ещё я дропнул университет на втором курсе за ненадобностью, а что проходили дальше знаю со слов бывших однокурсников и по конспектам лекций, которые я проглядел из интереса. Жить и работать мне это не мешает. Благо интернет в наше время уже изобретён, и есть немало хороших людей, которые прекрасно умеют понятно рассказать о всяких интересных вещах (и о RNN в частности) посредством ведения блогов, выступления на конференциях и написания книг.

На этом список вещей, которые "все умеют, а я не умею" не кончается. Например, я плохо знаю C++. Это мне тоже не мешает, потому что если задача решается с помощью другого языка, то я выберу его, а если обязательно нужно брать в руки эту дрянь — уж как-нибудь разберусь с помощью гугла и той самой небезызвестной матери.

>> No.3577628  

>>3577599
А кем работаешь?

>> No.3577632  

>>3577628
Погонщиком обезьян, вестимо.

>> No.3577636  

>>3577628
Программистом, как нетрудно угадать. Во всяком случае, это слово написано в контракте.

>> No.3577665  

>>3575086
У меня почему-то сайт второй день не грузится, что такое?

>> No.3577667  

>>3577665
Ты про веб-морду для него?

>> No.3577668  

>>3577667
Ну да. Все до сих по генерируют кучи арта, а я даже сайт не могу открыть.

>> No.3577672  

>>3577668
У меня он открывается, но очень долго, около минуты наверное.

>> No.3577673  

Автор мобильного приложения озолотится.

>> No.3577683  

>>3577673
Батарея поди быстро сядет от такого.

>> No.3577952  

>>3577556

>Всему вас учили, балбесы, если б вы ещё слушали…

Читал позже книги по компьютерному зрению, там разжёвывалось намного доступнее, вдобавок информацию можно перечитать.
Университет даёт только некоторый интерес к теме, остальное надо рыть, особенно если он наполнен старпёрами, которые работали на оборонку.

>> No.3578413  

>>3575086
Как обучить нейросеть что-бы там были еще и другие образы?

>> No.3578577  

>>3578413
Перетренировать её на картинках, содержащих новые образы. Если старые образы хочется оставить, тренировать ещё и на старых картинках.

Ваш К.О.

>> No.3578586  
Файл: -(868 KB, 1828x1828)
868

Есть еще:
http://iobound.com/pareidoloop/
Не скажу, что подобное, но чем-то тоже интересно, при этом проще.

>> No.3578588  
Файл: -(978 KB, 1828x1828)
978

>>3578586
Слегка прошелся фотошопом.

>> No.3578623  
Файл: -(462 KB, 1775x2521)
462

Правильно ли я понимаю:
1) Создаем многослойную нейронную сеть.
2) Обучаем ее распознавать собак с помощью этого градиентного спуска.
3) Подаем на вход рандомную картинку, но в качестве выходных значений используем значения какого-то внутреннего слоя нейронов, а не выходного.
4) ?????
5) Радуем ычанек веселыми картинками.

>> No.3578818  

Надо сделать из сырен механических турков, чтоб они расставляли аттрибуты кавайным картинкам для учебника.

>> No.3579578  
Файл: -(446 KB, 650x650)
446

У кого-нибудь получилось скомпилить это грёбаное кафе?

>> No.3579655  
Файл: -(46 KB, 700x600)
46

>>3579578
А что не получается? Makefile.config поправила? OpenBLAS установила? Видеокарта куду поддерживает? Сырно поможет!

>> No.3579703  

>>3579655
glog в студии выдаёт 500 ошибок, в mingw тоже кучу всего.

>> No.3579712  

>>3579703
А, так оно винду официально не поддерживает, только линукс и макось. Есть неофициальный порт: https://github.com/niuzhiheng/caffe - можешь попробовать.

>> No.3579728  

http://psychic-vr-lab.com/deepdream
Нашлось на реддите. Оно работает, но ждать похоже придется долго.

>Computer is now dreaming.
>It make take long time to wake up. You can visit this page later.
>Waiting list: 804 pics.
>> No.3579734  

>>3578623
Обучается не градиентным спуском, градиентным спуском генерируется картинка, которая увеличивает значение на определённом выходе. Так можно посмотреть, что мы обучили сеть считать тем или другим.
А затем берём случайную картинку, смотрим, что сеть на ней распознала и увеличиваем это градиентным спуском. Можно увеличивать значение на разных слоях.

>> No.3579936  
Файл: -(7 KB, 170x139)
7

Я просто оставлю это здесь.
http://rghost.ru/7fSvVB9dK

>> No.3579950  
Файл: -(165 KB, 1024x768)
165
>> No.3579986  

>>3579734

> Обучается не градиентным спуском

А что мешает им быть градиентным спуском? Обратным распространением ошибки обучили сводить семплы к кластерам. И обратной ошибкой на входном слое мы же получаем чистый изменения по пикселям для случайного изображения, для сведения его к известным семплам, где в качестве эталона берётся трешолдинг результирующего кластерного вектора.

>> No.3579988  
Файл: -(912 KB, 854x480)
912

>>3579936
Google no Uta, или я знаю, почему машины нас истребят.

>> No.3580120  

>>3577255
Долго рендерил?

>> No.3580131  

>>3579986
Мешают локальные минимумы.

>> No.3580156  

>>3580131
Изменение шага спуска? Монте-Карло для хаоситов. Не?

Я, вот, знаете чего понять не могу - почему собаки? Я как первый раз эти пикчи увидел, ещё до того как прочитал что это от гугля, одной из первых же вещей вспомнил новость несколько лет назад в 13-ом, что ли, или раньше: трубили (в узких кругах), что, мол, небольшой прорыв - сетка гугла просмотрев овер9000 часов ютубчика, создала, самостоятельно первый образ, и такую же картинку наркоманских форм и цветов на сером фоне с мордой прилагали. Только запомнила-то она кота! Откуда взялись собаки?

>> No.3580161  

>>3580156
Вестимо, учили на собаках.

>> No.3580185  

>>3580156
Если бы глобальная оптимизация всегда решалась изменением шага спуска, не пришлось из неё разводить целую отдельную ветвь знания. Монте-Карло - термин в наше неспокойное время собирательный. Что ты имел в виду - simulated annealing, эволюцонные вычисления, хаосообразный unsupervised learning или может быть многократно-случайные начальные условия для спуска?

Прислал хаосит

>> No.3580186  
Файл: -(10 KB, 194x145)
10

>>3580185
Последнее.

>> No.3580187  

>>3580186
В нейросетях применяется всё перечисленное и не только. Хотя, иногда бывает достаточно и переменного шага. Всё зависит от задачи.

>> No.3580197  
Файл: -(170 KB, 656x602)
170

>>3580156
Учили-то нейросеть на огромной куче самых разных картинок, просто глюкогенератор так устроен. Те образы, которые при генерации появляются первыми, они и растут быстрее других и не оставляют им шанса. Остальным образам просто не остаётся шансов. Случайно так оказалось, что с точки зрения этой нейросети случайный шум больше похож на собак, птиц и насекомых, вон они и забивают всё остальное. Даже вчера попробовал самые быстрорастущие параметры занулять - и всё равно полезли собаки и насекомые, только чуть-чуть другие, лол. Почему, Сырно непонимат.

>>3579986>>3579734
И обучается нейросеть таким же градиентным спуском, только при этом оптимизируем не входное изображение, а параметры сети.

Сырно объяснят: нейросеть - это такой волшебный чёрный ящик. С одной стороны в него засовывают картинку как в ведро, с другой стороны вылазит ответ: "инфа 97% - свёкла, 1% - ведро" и т. д. Сбоку у этого ящика есть много-много крутилок (параметров). И если эти крутилки правильно настроить, то можно научить сеть давать правильные ответы. У сабжевой сети этих крутилок аж несколько миллионов, потому что она очень крутая. Осталось только взять их все и настроить. Делается это так: показываем нейросети фотографию свёклы и хитрым способом вычисляем, какие крутилки надо в какую сторону подкрутить, чтобы сеть нам дала ответ "это 100% свёкла!" На языке фей это называется "посчитать градиент функции потерь относительно парамтеров сети". "Функция потерь" - это просто такое число, которое нам говорит, насколько часто сеть ошибается (чем меньше, тем лучше). "Градиент" - это направление, в какую сторону чего крутить, чтобы ошибок было меньше. "Обратное распространение ошибки" - это просто такой алгоритм, который считает градиент функции потерь (направление, куда крутить, чтобы сеть реже ошибалась). "Градиентный спуск" - это и есть тот процесс подстройки параметров: посчитаем, куда крутить, и слегка подкрутим. Ответ сети чуть-чуть улучшится. Потом посчитаем ещё раз, и ещё слегка подкрутим. И так много-много раз для многа-многа миллионов картинок. И нейросеть такая медленно но верно учится узнавать свёклу, овощи, булочки, котов, девочек-волшебниц, вёдра, баки пластиковые и вообще всё, что было на картинках. >>3580131 Причём, по не совсем ясным причинам, большим нейросетям эти локальные минимумы и не мешают-то особо, и тупой градиентный спуск почему-то работает. Почему - загадка.

>> No.3580198  

>>3580120
А я на работе на ПЕЧ 980 запустил, за ночь и отрендерилось. :3

>> No.3580224  

Не компилится в общем под виндой, требует модуль (либа) _caffe, которого в портированной версии нет.

>> No.3580236  

>>3580197

> Причём, по не совсем ясным причинам, большим нейросетям эти
> локальные минимумы и не мешают-то особо, и тупой
> градиентный спуск почему-то работает. Почему - загадка.

Довольно сильно мешают, поэтому и придумали всю эту парадигму "backpropagation AND unsupervised learning", а также кучу "трюков", позволяющих с помощью ловкости рук добиться толка от backpropagation'а. Рекурсивные сети, например, градиентным спуском особо не пообучаешь - см. vanishing/exploding gradients problem.

Довольно многое удаётся сделать и на чистом backpropagation'е, и это действительно довольно загадочно. Думаю, тут всё дело в множественности решений - к какому минимуму не скатывайся, работать будет.

>> No.3580237  

>>3580197
Я правильно понимаю, у этого глюкодела выставлено видеть собачек и глаза. И вот я ей показываю фото Номада, она на него смотрит и говорит: "а вот тут нужно дорисовать собачку и глаза". А если ей выкрутить распознование Номада, то программа будет во всем искать Номада?

>> No.3580270  

>>3580237
Оно не выставлено, само так получилось. Можно обучить свою сеть на фотогалерее Номада, тогда будет искать Номада.

>> No.3580272  

>>3580197
А что именно ты занулял?

>> No.3580316  

http://ryankennedy.io/running-the-deep-dream/
Внезапно. Буду пробовать.

>> No.3580332  
Файл: -(146 KB, 800x480)
146

>>3580272
Делал несколько тестовых итераций, потом смотрел, какие карты признаков самые активные и градиент для них занулял. Всё равно собаченьки.

>> No.3580436   удалён
Файл: -(617 KB, 1059x746)
617

Заработало! Лол.

>> No.3580444  
Файл: -(1298 KB, 1197x922)
1298

Заработало! Лол.

>> No.3580462  
Файл: -(91 KB, 480x688)
91
>> No.3580480  
Файл: -(153 KB, 800x800)
153
>> No.3580614  
Файл: -(165 KB, 800x800)
165
>> No.3580631  

>>3580614
Эти глупые собаки меня пугают.

>> No.3580645  

бытие определяет сознание
отличная иллюстрация

>> No.3580651  
Файл: -(72 KB, 604x453)
72

Лол, купола растут из башни.

>> No.3580699  
Файл: -(71 KB, 604x453)
71

I never asked for this.

>> No.3580745  

>>3577457

> Кто-нибудь, подалуйста поделись training set'ом от ILSVRC.

Если не нужен весь имиджнет, то датасеты с последнего конкурса доступны без регистрации без СМС.

http://image-net.org/challenges/LSVRC/2014/download-images-5jj5.php

>> No.3580758  
Файл: -(179 KB, 1000x673)
179

Интересно, а возможно эту сеть натренировать на другие объекты?

>> No.3580786  

>>3580758

>Интересно, а возможно эту сеть натренировать на другие объекты?

Да, возможно. Но для этого нужно будет найти 1М картинок на которых можно будет обучать сеть.

>> No.3580790  

>>3580786
Имелось в виду используя существующую как основу, то бишь сделать модификацию, на которой собаки с куполами будут выглядеть немного по-другому.

>> No.3580803  
Файл: -(186 KB, 1000x673)
186

Найдите на картинке Робокопа.

>> No.3580815  

Однажды я закрыл глазки, у меня было плохое путешествие.
Да, я видел подобное, только на черном фоне.

>> No.3580824  
Файл: -(78 KB, 600x586)
78

Гениальная херя.

>> No.3580839  

>>3580824
Лол.

>> No.3580850  
Файл: -(110 KB, 621x884)
110

Мутации.

>> No.3580852  

>>3580824
До слёз.

>> No.3580854  
Файл: -(7 KB, 604x379)
7

>>3575086
А что это за тема ? Я не в сабже но пик с Вассерманом и котом привлекли мое внимание. Объясните пожалуйста

>> No.3580855  

>>3580854
Смотри в пол.

>> No.3580858  
Файл: -(23 KB, 492x278)
23

Чувствую себя полным мудаком, смотря, как все играют с этой хренью, а я не понимаю, как её запустить.
Можете запилить более-менее понятный гайд, как это собирать? Я не разбираюсь в питоне.
И какие требования? Как я понял, нужна машина, работающая под линуксом (Солярис подойдёт?) и с подходящей видеокартой. Или что?

>> No.3580859  

>>3580858
Тут никто не запускает, пикчи с сайта.

>> No.3580860  
Файл: -(174 KB, 800x800)
174

>>3580859
Не надо, я запускаю.
>>3580858
У меня это заработало:
http://ryankennedy.io/running-the-deep-dream/

>> No.3580864  

1) Прогоняем одну и ту же картинку несколько раз подряд.
2) Около пяти тысяч раз подряд.
3) Сохраняем полученные файлы последовательно.
4) Компилим из них трехминутное видео, как из отдельных кадров.
5) ???

>> No.3580868  

Странно, но pip для numpy хочет иметь установленным некросовтовский вижуал с++. Не буду эту мерзость ставить, придётся искать обходной путь.

>> No.3580869  

>>3580864
Получится советский рисованый мультфильм, останется только озвучить.

>> No.3580874  

>>3580869
ХОТЕТ! Только фпс поменьше и плавные переходы между кадрами. Озвучка если только музыка какая.

>> No.3580876  

>>3580864
>>3580869
>>3580874
https://www.youtube.com/watch?v=oyxSerkkP4o

>> No.3580879  
Файл: -(1432 KB, 1366x585)
1432

>>3580876
Годно, но немного не то. Надо именно эволюция статической картинки. А ещё я случайно сколопендру.

>> No.3580892  

>>3580860

>http://ryankennedy.io/running-the-deep-dream/

Я как бы имел ввиду, что у меня уже есть машина с линуксом. Про солярис написал просто потому, что хотел узнать, на любой ли UNIX или UNIX like системе это прокатит. Так что можно без всяких Docker.
Мне интересно именно как собрать всю эту хрень.

>> No.3580895  
Файл: -(78 KB, 500x545)
78

А если линук на VirtualBox поставить - будет работать?

>> No.3580896  

>>3580892
http://caffe.berkeleyvision.org/installation.html

>> No.3580897  

>>3580895
Будет.

>> No.3580917  

https://www.youtube.com/watch?v=QFq2uDv-34Y
https://www.youtube.com/watch?v=FrF7wwRELeo
https://www.youtube.com/watch?v=CfCdzhRldUo
https://www.youtube.com/watch?v=JjHBO6HRPdg
https://www.youtube.com/watch?v=hoVtKjHay6U
https://www.youtube.com/watch?v=RYP-r27OUSY

>> No.3580919  

>>3580917
Шизофрения прогрессировала. Особенно в последнем.
На самом деле, когда это научат в определение границ и форм, то, возможно, что-то получится, а пока это симулятор шизофреника.

>> No.3580921  
Файл: -(1161 KB, 500x1011)
1161

>>3580917>>3580919

> симулятор шизофреника

Ліл, мои мысли.
Пик и ссылка тоталли рилейтед.
https://ru.wikipedia.org/wiki/%D0%A3%D1%8D%D0%B9%D0%BD,_%D0%9B%D1%83%D0%B8%D1%81_%D0%A3%D0%B8%D0%BB%D1%8C%D1%8F%D0%BC

>> No.3580922  
Файл: -(234 KB, 217x566)
234

>>3580921
Русскоязычная википедия, как всегда, на высоте.

>> No.3580923  
Файл: -(165 KB, 1275x848)
165
> Луис Уильям Уэйн (1860 — 1939) — английский художник, известный тем, что рисовал кошек. Чем тяжелее становилась шизофрения и отчуждение художника от реального мира, тем сильнее изображения кошек в его картинах напоминают фракталы.
>> No.3580924  

>>3580923
Связь шизофрении с мозговыми паразитами — только теория.

>> No.3580930  

>>3580923

> Место рождения:

Клеркенвелл, Лондон

> Clerkenwell
> Bathtime in Clerkenwell

https://www.youtube.com/watch?v=z0PGK7a2IFo

>> No.3580960  
Файл: -(49 KB, 300x321)
49

Немного Кириака в этот тред.
https://www.youtube.com/watch?v=tnWP2Emps1M
https://www.youtube.com/watch?v=GAvS1ndtEKg
https://www.youtube.com/watch?v=dZfmPREbTd8
https://www.youtube.com/watch?v=WQO-aOdJLiw
https://www.youtube.com/watch?v=jX3iLfcMDCw

>> No.3580971  

>>3580960
https://vimeo.com/113171079

>> No.3581000   удалён

>>3580971
Ну, это уже перебор для Ычана.
Аккуратнее с контентом.

>> No.3581145  
Файл: -(202 KB, 1200x600)
202
>> No.3581147  
Файл: -(187 KB, 1024x576)
187
>> No.3581165  

А зачем вообще нужны эти ваши нейросети?

>> No.3581167  

>>3581165
Для распознавания объектов на картинке/обхода капч/ещё что-то. Гуглопоиск по картинкам на них работает.

>> No.3581169  
Файл: -(153 KB, 591x853)
153

>>3581165
Распознават. Управлят. Предсказыват.

Помогат.

>> No.3581232  

>>3581165
Программы, эмулирующие работу нервной системы животных. Самообучающаяся хрень, делающая то, на что способен мозг, но не предназначен процессор.

>> No.3583192  
Файл: -(249 KB, 1280x720)
249
>> No.3583199  

>>3583192
Можно оригинал, пожалуйста?

>> No.3583200  
Файл: -(511 KB, 1280x720)
511

>>3583199
Обычная фотка.

>> No.3583211  

>>3583200
Красивая же.

>> No.3583536  
Файл: -(117 KB, 807x606)
117
>> No.3583574  

Хитрый план
1.Идем на буры
2.Выставляем тегами %имядевочки% и solo
3.Граббим все результаты
4.Учим на них сеть
5.???
6.PROFIT!
Покатит ли?

>> No.3583583  

>>3583574
Интересно, а кто-нибудь из Сырек покупал премиум?

>> No.3583696  
Файл: -(55 KB, 420x598)
55
>> No.3593914  
Файл: -(114 KB, 740x650)
114
>> No.3593921  
Файл: -(122 KB, 800x534)
122
>> No.3593931  
Файл: -(164 KB, 1024x768)
164
>> No.3593946   удалён
Файл: -(158 KB, 800x533)
158

В гостях у сказки

>> No.3593981   удалён
Файл: -(31 KB, 300x300)
31
>> No.3594779   удалён
Файл: -(74 KB, 403x600)
74
>> No.3594928  
Файл: -(118 KB, 567x800)
118
>> No.3594991   удалён
Файл: -(108 KB, 533x800)
108

Планета обезьян

>> No.3595124   удалён
Файл: -(227 KB, 748x748)
227

Он придёт к тебе ночью

>> No.3595132   удалён
Файл: -(30 KB, 300x450)
30
>> No.3595135   удалён

>>3594779
Я такое каждый раз вижу, когда из дома выхожу.

>> No.3595136   удалён

>>3595135 Без веществ из дома не выходишь? Или ты так видишь жизнь живописно?

>> No.3603306  
Файл: -(427 KB, 1152x768)
427

>>3603263

>> No.3603316  
Файл: -(337 KB, 1152x768)
337



[d | an-b-bro-fr-gf-hr-l-m-maid-med-mi-mu-ne-o-old_o-p-ph-r-s-sci-sp-t-tran-tv-w-x | bg-vg | au-mo-tr | a-aa-abe-azu-c-dn-fi-hau-jp-ls-ma-me-rm-sos-tan-to-vn | misc-tenma-vndev | dev-stat]
[Burichan] [Futaba] [Gurochan] [Tomorrow] [Архив-Каталог-RSS] [Главная]