Модель пока не обучена, но зная мощности Google, скоро модель обучат, и можно будет потрогать своими руками. Если у тебя дома пылит суперкомпьютер с TPU, можешь обучить самостоятельно.
Триллион параметров, Анон! Триллион параметров! Без нестабильности обучения, да еще и с линейной сложностью обучения! Ты понимаешь, что это означает?
>>171520 Это NLP модель (то бишь для текста) . Как GPT-3 но с количеством параметров как в твоем мозге. То есть, когда модель обучат, в задачах работы с текстом модель будет на уровне человека.
> OpenAI GPT-3, пожалуй, самая известная модель глубокого обучения, созданная за последние несколько лет. Одна из вещей, которая больше всего впечатляет в GPT-3, - это его размер. В некотором контексте GPT-3 - это не что иное, как GPT-2 с множеством дополнительных параметров. Имея 175 миллиардов параметров, GPT-3 был примерно в четыре раза больше своего крупнейшего предшественника.
> Зная это, как бы вы тогда относились к модели, которая в 6 раз больше GPT-3? Именно этого добилась команда из Google Research с их новой архитектурой Switch Transformer . Новая модель имеет непостижимые 1,6 триллиона параметров, что делает ее в шесть раз больше, чем GPT-3.
> Благодаря новым оптимизациям, Google смог обучить модель Switch Transformer поразительным 1,6 триллионам параметров! Скорость обучения увеличилась до семи раз по сравнению с предыдущими архитектурами.
>>171526 Таки да, наебал. У человека 100 триллионов связей в мозге. Но это не проблема накинем еще параметров. А как квантовые компьютеры допилим, так вообде лафа будет. А пока ждем пока гугл выкатит свою новую натренерованную модель.
>>171535 Как это не поможет? Компьютеры просто созданытдля комбинаторных задач. То есть для поиска и перебора. Это означает, что множество задач можно будет без какого-либо машобчика. Игра в Го к примеру, на обычных компах решается только с помозью ухищрений, типа нейронок. На QC партию можно будет просчитать обычным перебором. Матричные вычисления тоже задача комбинаторная, а матрицы - основа машоба. Так что QC нормально так пробустят машоб.
>>171539 > На QC партию можно будет просчитать обычным перебором Каким образом? Не вижу логической цепочки. Насколько мне известно, QC нужен для очень узких задач. И даже для них ещё толком ничего не сделали кроме прототипов каких-то. Какое отношение это имеет к матрицам и нейронкам?
>>171543 > Каким образом? Погугли, как работают кубиты, и как они решают сложные кобинаторные задачи. Перебор всех возможных ходов - одна из этих ходов. > QC нужен для очень узких задач Только потому что они еще не доделаны. Еще не решена проблема когерентности. Подвижки есть, созданы алгоритмы, которые увеличивают когерентность. Но пока вопрос QC еще открыт. Но когда доделают - пизда современной криптографии и биткоинам. Ибо подобрать пороль или хеш для QC - как нехуй делать.
>>171533 >А как квантовые компьютеры допилим, так вообде лафа будет. Лафа в чем? >То есть, когда модель обучат, в задачах работы с текстом модель будет на уровне человека. Это хорошо?
>>171544 > Но когда доделают - пизда современной криптографии и биткоинам Да, да. Кстати, что там с новыми криптографическими методами, которые обладают хоть какой-то стойкостью перед такими вот переборами при помощи QC? Я, кажется, слышал что-то где-то краем уха.
>>171546 > Это хорошо? Это крайне хуево на самом деле. Но всем плевать. Все думаю как бы ИИ не зохватил мир. ИИ-то мир не зохватит. Но люди, которые будут располагать всем что может дать самый современный ИИ будут косить бабло как никогда раньше. И далеко не всегда на благо общества.
>>171555 Не забудь подчистить инфу за собой, все диски запиши нулями все аккаунты удали. Слышал что новые пк смогут взламывать пароли, очень быстро, очень.
>>171548 > Кстати, что там с новыми криптографическими методами, которые обладают хоть какой-то стойкостью перед такими вот переборами при помощи QC? Против QC можно сопоставить только методы квантового шифрования. Короче, если между сигналом от одного компьютером и другим появится посредник - система тут же потеряет когерентность. Это так на чисто физическом уровне.
>>171519 (OP) >Google Brain создала, и выпустила в опенсорс нейросеть на основе Switch-Transformer с триллионом параметров! >Ты понимаешь, что это означает? На выходе получим очередное говно не способное мыслить креативно. То есть это снова будет супер-усложнённый if-else-elif, а не настоящий искусственный интеллект. Вдумайся анон, что будет если совместить два требования: 1. Точность запоминаемой информации. 2. Творческие способности. Приведу пример. Аутист савант обладает абсолютной визуальной памятью, запоминает город лишь однажды взглянув на него из иллюминатора самолёта, затем в точности переносит его на холст. Попытка этого аутиста нарисовать тот же самый город с другого ракурса закончится неудачей, потому что на это требуется воображение. Теперь представь что будет, если собрать воедино десяток таких аутистов с разными способностями. В совокупности они не проявят творческих способностей. Может следует взять сотню аутистов? Возможно в хаосе летающих самолётиков и пирамидок из кубиков можно будет наблюдать что то отдалённо напоминающее творчество единого организма. Но даже один нормальный человек с далеко не идеальной памятью легко их превзойдёт. То же самое с ИИ. Добавляя аутистов памяти и мощности нельзя получить нормального человека что то подобное мышлению живого существа без паталогий развития. Короче, гугл опять создал что то невнятное и безумное, достойное /b/.
>>171821 Вопрос в том что из себя будет представлять if-else-elif. Тут нужно не только техническое новшество вместо водопроводных труб с вентилями, но и ясное понимание задачи. А то получается что сейчас, по факту, обществу нужна чуть более умная программа чем раньше, но никак не свободный от предписаний интеллект. По итогу эти программы неверно называют интеллектом, а затем начинают собирать их вместе как фрагменты компенсируя тем самым их несамодостаточность. При том забывают что биологический интеллект на фрагменты не поделен и самодостаточен.
>>171602 >Попытка этого аутиста нарисовать тот же самый город с другого ракурса закончится неудачей А у тебя - успехом, умник? Откуда такие познания в аутистах? >потому что на это требуется воображение 3Д-моделирование. Машины справляются с этим лучше людей. На "невидимую" сторону зданий налепит текстурки с увиденной и никаких проблем. Ты со своим воображением лучше не справишься. >нельзя получить Тыскозал? Проблема создания ИИ пока именно в МАЛОЙ МОЩНОСТИ, не способной смоделировать взаимосвязи охуллиардов нейронов мозга. Но никакого волшебства в мозге при этом нет. Просто охуллиарды нейронов и возможностей их взаимодействия. То, что ты называешь творчеством, это "помехи", окольные нейронные дорожки из пункта А в пункт Б через соседние нейроны, где может храниться самая разная информация, вызывающая неожиданные (но чаще - ожидаемые) ассоциации.
Ты думаешь, что нейросеть не сможет вместо увиденных текстурок зданий налепить с обратного ракурса какой-нибудь хтонический пиздец с шевелящимися щупальцами? Да вообще без проблем, хоть котиков налепит, хоть бездну космоса. Проблема будет лишь в том, что ты, со своими ограниченно-дефолтными ассоциативными связями не восприймешь это, как творчество. Но это проблема лишь до тех пор, пока нейросеть не изучила твои дефолтные, повторяюсь, ассоциации.
Хорошая "китайская комната" полностью проходит тест Тьюринга. О чём говорить, если дохуя людей могут часами перекидываться в тредах говном с чат-ботами.
Нейросетки успешно учатся распознавать изображения (и похуй, что их можно наебать другими нейросетями), просто обучаясь у людей. Точно так же нейросеть сможет распознавать "творчество". А после этого сможет и воспроизводить его. Вопрос, сможет ли ИИ превзойти в творчестве всех людей - остаётся открыт, т.к. именно люди задают правила игры в "творчество", но превзойти в этом лично тебя - вопрос недалёкого времени.
>>172054 Была, м.б. даже где-то здесь годнейшая паста про эволюции, начиная с простейших органических соединений. Уже на этом этапе можно постулировать наличие интеллекта: есть задачи (самовоспроизводство), есть информация, есть решение задач посредством анализа информации. В принципе, это даже у неорганики можно постулировать, но у органики есть ещё одна прекрасная черта: тенденция усложняться и повышать свою эффективность в решении своих задач. Нет никакого качественного перехода между интеллектом человека и интеллектом бактерии. Разница только в мощности "интеллекта" организма. Если мы сможем смоделировать поведение бактерии, вируса, водоросли, метана - вопрос моделирования человека будет лишь вопросом вычислительной мощности.
>>172162 >>172222 Машинное обучение открывает невиданные перспективы в нейронауке, но у вас уже всё просто, всё очень просто. Стоит только прихуярить побольше маняторов.
Гуглите blue brain project И вообще побольше гуглите, манюхи. >Если сознание появляется в результате критической массы взаимодействий — тогда, это может быть возможно. Но мы действительно не понимаем, что есть сознание, поэтому трудно об этом говорить.
Если, дурачки, ЕСЛИ Вот как только взлетит так и приходите кудахтать.
>>172350 >ЕСЛИ сознание появляется Сначала докажи, что оно вообще существует и может в какие-то функции, а не является лишь рационализацией безальтернативно принятых решений бездушной подсознательной математикой стимулов.
>>171549 >как бы ИИ не зохватил мир нахуя ему это >люди, которые будут располагать всем что может дать самый современный ИИ будут косить бабло как никогда раньше похуй на них вообще
>>172578 >ЗНАЮ КРУТОЕ АНИМЕ Это значит, что ты пидар >>172222 >вопрос моделирования человека будет лишь вопросом вычислительной мощности. Вот интересно, сколько минимум нужно, как это вообще будет выглядеть. Это же типо эмулятор, должна еще мощнее система быть, чем зашитая в "железе". Или сразу будут нейропроц пилить
>>174524 > Не имею, Тогда зачем споришь о том, в чем не разбираешься? > ЧУВСТВУЮ Какие нахуй чувства? Что ты несешь? Всё решает количество параметров. Сравни количество нейронов червяка, и человека. Если сделаем нейронку с 300 триллионом параметров, то такая нейронка поумнее тебя выйдет.
>>174527 >Тогда зачем споришь о том, в чем не разбираешься? Ты тоже не разбираешься, тебе написали триллионы и ты уже обоссался от того как это круто. >Какие нахуй чувства? Что ты несешь? То и несу, живу имею опыт, тыкал всякие генераторы текста и вообще как поисковики работают, может сформулировать не смогу научно, но чувствую, что говно и даже не близко к тому что нужно, хули непонятно. >Всё решает количество параметров. Решает структура
>>174529 > Решает структура Структура решает только производительность. Любую задачу (абсолютно любую, кроме нерешаемых алгоритмически проблема остановки) можно решить простым перебором.
Или коротко: любой мыслительный процесс сводится к поиску среди всех возможных вариантов
Вот только для этого на обычных компьютерах может потребоваться тысячи лет. Вот и придумывают эвристики поиска, и нейроночки одни из них.
>>174518 Люди поступают точно так же: теряются в незнакомых ситуациях. Помогает только опыт, но и нейронки учатся на опыте. У нейронки опыта будет явно больше, чем у тебя, так что в "нестандартных ситуациях" скорей обосрёшься ты, чем нейронка.
>>174582 > Как скоро? Ну смотри, Switch-Transformer быстрее обычного трансформера в 7 раз. Это значит, что уже на существующем оборудовании можно будет обучить. > С чего ты это решил? Потому что опенсорс. Любой может на TPU обучить и выложить предобученную сеть.
>>174918 Я в гугле не работаю. Откуда мне знать, когда трейнить будут. Где-то через год. Может через полгода. Сама нейросеть учится за часы, что тянут, хуй знает. С GPT тоже самое было. >>174920 Моэчую этого. Может даже через полгода, если учитывать что у прогресса скорость экспоненциальная.