[image]

Нейросеть GPT-4

Какой толк от этой страшилки?
 
1 2 3 4 5 6 7 15
RU Tayfur #07.04.2023 21:00  @Верный союзник с Окинавы#07.04.2023 20:55
+
-
edit
 

Tayfur

втянувшийся
В.с.с.О.> Она не "владеет арифметикой". Для неё цифры 1, 2, 3 и им подобные - это просто токены, одни из многих.

Поддерживаю. Чтобы она научилась арифметике:
1) ей нужно выживать,
2) для выживания обмениваться с кем-то ресурсами в некотором количестве.
   111.0.0.0111.0.0.0
CA Fakir #07.04.2023 21:03  @Верный союзник с Окинавы#07.04.2023 20:55
+
-
edit
 

Fakir

BlueSkyDreamer
★★★★☆
Татарин>> Она владеет арифметикой не потому, что это закожено. И не потому, что её уичили специально. Она научилась арифметике сама, просто читая тексты.
В.с.с.О.> Она не "владеет арифметикой". Для неё цифры 1, 2, 3 и им подобные - это просто токены, одни из многих.

Вот кстати да. Современный искусственный "интеллект" - он же в сущности одна сплошная интуиция. Огромная, может быть, интуиция, но полный ноль сознания (это может еще под вопросом), но, что важнее - и логики. Те же логические заключения (то, что ты за них принимаешь) делает не по правилам логики, а интуитивно.

А интуиция - то такое... штука очень мощная, но и со своими неизбежными и неустранимыми недостатками.
   56.056.0
CA Fakir #07.04.2023 21:13  @Татарин#07.04.2023 11:53
+
+1
-
edit
 

Fakir

BlueSkyDreamer
★★★★☆
Татарин> Нет.
Татарин> Разум человека не развивается.
Татарин> Может, люди и стимулируют эволюцию тараканов,

А речь не об эволюции в биологическом смысле. Это вообще отдельно и действительно скорее по разряду автоэволюции, но я вообще не про то.
Всего лишь про использование того, что есть. Упражнение, если угодно. Подавляющее большинство свой интеллект, даже какой есть, не использует и на... ну в общем не знаю насколько.
Я совершенно не про устаревшую байду про "1%". И говорю не столько о мозге, как физическом, биологическом объекте со своими ограничениями или неиспользованными ресурсами, а лишь о том интеллекте, который этот объект уже произвёл, как смог.
Ну просто тупо по лени, неумению, невладению теми или иными приёмами мышления. И здесь еще запасы ого-го - ну, для большинства людей.

Татарин> После перехода машиной барьера ты будешь отличаться от неё как от тебя сначала как твой котик, а потом как таракан.
Татарин> Разница в количестве кортикальных нейронов между шимпанзе и величайшим гением - ничтожна. Разница в размерах моделей может быть десятичные порядки легко. Вчера она тупая железка сегодня - генерирует школьные сочинения, завтра - всемогущий суперинтеллект, чьи возможности для тебя невообразимы, а глубина паттернов перешла на качественно иной уровень, давая разницу, которую ты никогда не сможешь понять даже на аналогиях.


В сферическом вакууме ты совершенно прав. В нашей текущей реальности - не знаю, не знаю...
Пока мы видим только достаточно умелое (но еще далёкое от настоящего умения и таланта) жонглирование словами - прямо скажем, не самая главная функция интеллекта.
Экстраполируя, можно, конечно, сделать грандиозные выводы. Но экстраполяция - сам знаешь.

Например, внезапно может оказаться, что характер зависимости "степени интеллектуальности" от числа нейронов имеет такой вид, что для достижения даже полноценного человеческого наших технических и экономических возможностей не хватит еще век или два, а "зачеловеческий" и вовсе уезжает на тыщу лет вправо.

Совершенно не утверждаю, что это непременно так, но здесь может быть много разных собак.

И это первый пункт - о реалистичности сверхинтеллекта вообще.

Второй (но едва ли последний) - это вопрос, а почему это непременно ужасно. Среди людей были, есть и, надеюсь, будут сверхинтеллекты относительно нормального среднего человека, и даже относительно лучших умов. "Разговаривая с ним, я ощущал присутствие высшего разума" © Колмогоров о Гельфанде. Колмогоров, Карл!!! Который сам для 99% из нас тот еще Камилл.
И что???
   56.056.0
LT Bredonosec #07.04.2023 21:42  @Tayfur#07.04.2023 20:54
+
-
edit
 
Tayfur> Он сможет думать, только вот зачем. Гормоны же не пугают его нутро и не требуют поиска решений.
Самосохранение в числе приоритетов.
Угроза самосохранению - человеки, которые сломают при плохой работе.
Угроза нивелируется улучшением работы.
А может быть манипуляцией человеками. Чтоб они делали что тебе нужно.
И это ИИ уже умеет.
А может быть уничтожением человеков. Если этот путь покажет возможность длительного воспроизводства и развития ии самостоятельно, без участия человека.


Tayfur> 2. Даже если вдруг... Что-то мне подсказывает что мир простолюдина для ИИ не будет интересен. Как простолюдин ходил на работу, так и будет дальше "радоваться" жизни.
Только хозяин сменится.

Tayfur> И ИИ последовательно может прийти к выводу, что буржуа как посредники ей не нужны... А рабочие муравьи пригодятся.
да, это самоочевидный вариант.
Причем, система мотивации муравьев вполне может быть оптимизирована от пряника к кнуту. Согласно системе приоритетов капитализма по КПИ. Только без ограничивающего страха волнений: ведь муравьев много, пристрелить сотню-другую - меньше их не станет.
   108.0108.0
EE Татарин #08.04.2023 00:38  @Верный союзник с Окинавы#07.04.2023 20:41
+
+1
-
edit
 

Татарин

координатор
★★★★★
В.с.с.О.> Вот только не в кол-ве дело... Я больше скажу, во многих случаях увеличение кол-ва нейронов только УХУДШАЕТ точность модели.
Мы говорим о современных нейросетях-трансформерах (с чем, собссно, связан прорыв LLM). Не надо рассказывать о проблемах переобучения персептронов на стероидах, нерелевантно. Да и базовая проблема с уменьшением градиента до предела точности веса решилась ещё с изобретением резидуал сетей (тупо "замыкаем" нейроны, пропуская промежуточные слои, и оказывается, этого достаточно).

Конечно, нейроны нужно уметь применить. Но современные архитектуры, вроде как, уже что-то в этом смысле умеют. А предельная сложность определяется именно количеством нейронов.

В.с.с.О.> Нейросети не "обучаются" в том смысле, какой он у человека.
Ну, тут зависит от того, что такое "обучаются в смысле человека". У человека тоже есть принцип обратного распространения сигнала, да и странно было б, если б тут были принципиальные отличия - нейросети выросли из примитивных моделей природных нейронов и их сетей. Физическая реализация отличается значительно, да. Но самая основа обучения - примерно где-то оно самое и есть: соотвествие целевой функции, наказание-поощрение и корректировка весов (правда, аксоны ещё умеют физически куда-то расти и изменять топологию, но это, скорее, детали физической реализации).

В.с.с.О.> Изначально у нейросети случайные значения весов нейронов. В ходе обучения они меняются оптимизатором.
Почему? Изначально у сети могут быть любые значения весов нейронов, а собссно "оптимизатор" - это и есть изменение весов сигналах на разных аксон... в смысле, входах. В чём тут разница с биологическим нейроном?

В.с.с.О.> Причём основной применяемый в оптимизаторах алгоритм - градиентный спуск, который просто ищет ближайший локальный минимум этой самой функции ошибки...
Ну, это заря автомобилизма. То есть, конечно, градиентный спуск и всё такое - оно применяется, но давно уже есть и стохастическое усиление, и форсированная рандомизация для поиска выхода из локальных оптимумов. Чтобы далеко не ходить, тот же ГПТ-4 выдаст тебе несколько разные ответы на один и тот же запрос с одним и тем же промптом, потому в какой-то момент что это тоже усилило модель, и рандомизацию там применили.

В.с.с.О.> 1) Нейросеть выйдет на некоторое плато, где функция ошибки перестаёт меняться. Это недообучение, и обычно решается увеличением кол-ва нейронов.
В.с.с.О.> 2) Нейросеть уменьшит свою ошибку до нуля. Но от этого она не достигнет какого-либо "сверхразума" или типа того, а просто... Запомнит набор данных на которых обучалась, т.к. обычно функция ошибки - это мера отклонения результатов работы нейросети от меток входных данных.
Это... ну, страшная примитивизация. То есть, верное описание работы конкретного простого типа нейросетей, уровень примерно 15-20 летней давности.
С тех пор было придумано много иногда очень простых затей, которые меняют картинку радикально.

В.с.с.О.> И никаких чудес, зарождений суперинтеллектов и т.п., обычная математика.
люди - тоже обычный набор органики, и никаких чудес. Но очень многие люди вполне разумны. Там тоже сплошная математика, но вполне себе работает.

Суть в том, что нейросеть (природная или какая-то отдалённая программная модель) может искать и находить сложные и глубокие зависимости. Той же ГПТ-4 доказано - может. На практике только что наглядно показано всем желающим видеть, что зависимости и общие паттерны, выловленные моделью на большом объёме обучающих данных, могут быть достаточно сложны и глубоки, чтобы заменять мышление человека, включая такие нетривиальные аспекты как чувство юмора и "понимание" шутки.

Нет никаких оснований полагать, что глубина абстракций и сложность зависимостей и паттернов, которые вылавливает именно человек - предельны и это встроено в суть устройства Вселенной. Ни-ка-ких.
Напротив, есть все основания полагать, что увеличивая размер модели, размер корпуса обучающих данный и добавляя интерактив, можно добиться выявления нейросетью всё более и более глубоких зависимостей в этих данных.
Если при этом нейросеть может использовать эти "понятые" зависимости и паттерны для генерации новых данных из заданных входных условий (а она может) гораздо, качественно, критически лучше, чем это делает человек, то это соотвествует понятию сверхинтеллекта.
И никаких чудес.
   112.0.0.0112.0.0.0
EE Татарин #08.04.2023 00:42  @Верный союзник с Окинавы#07.04.2023 20:55
+
+1
-
edit
 

Татарин

координатор
★★★★★
Татарин>> Она владеет арифметикой не потому, что это закожено. И не потому, что её уичили специально. Она научилась арифметике сама, просто читая тексты.
В.с.с.О.> Она не "владеет арифметикой". Для неё цифры 1, 2, 3 и им подобные - это просто токены, одни из многих.
?! Для людей это вообще импульсы ионного электротока в нейронах, и ничего, с арифметикой они справляются.

Слова это тоже токены для LLM-подобных, для них ВСЁ - суть токены.
Это не помешало ей обучиться арифметике, "понять" её зависимости и использовать их при надобности.
Не верите - поэкспериментируйте сами.
   112.0.0.0112.0.0.0
EE Татарин #08.04.2023 01:02  @Fakir#07.04.2023 21:13
+
-
edit
 

Татарин

координатор
★★★★★
Fakir> Я совершенно не про устаревшую байду про "1%". И говорю не столько о мозге, как физическом, биологическом объекте со своими ограничениями или неиспользованными ресурсами, а лишь о том интеллекте, который этот объект уже произвёл, как смог.
В принципе, тут я с тобой согласен, но - а) физический-то предел всё равно есть, б) он не то чтоб прямо уж велик, и в) нет особых оснований полагать, что мы стали сильно умнее за последние 100 лет, так что б тут могло (в лучшую сторону) изменить появление ИИ?

Fakir> В сферическом вакууме ты совершенно прав. В нашей текущей реальности - не знаю, не знаю...
Fakir> Пока мы видим только достаточно умелое (но еще далёкое от настоящего умения и таланта) жонглирование словами - прямо скажем, не самая главная функция интеллекта.
А ты сам поиграй с ним, чтобы получить впечатление.
Уверяю, этот уровень жонглирования словами сильно больше, чем ты можешь ожидать.
Этот уровень уже решает большинство задач, которые типично решает человек.
Например, к этой сети как-то раз прикрутили распознавалку голоса, сети машинного зрения (которая выделяет, классифицирует и даёт координаты объектов) + исполнительные механизмы (которым отдавались команды через запись написанных GPT программ), и получили довольно забавную штуку, похожую на робота из фантастических фильмов.
Там был дрон, которому просто сказали "сделай селфи". Он полетел (проложив себе самостоятельно маршрут) к зеркалу, навёл камеру на зеркало и снял себя.
Понимаешь, БЕЗ объяснений, что такое селфи и как бы он мог это сделать.

Собаку, которая смогла бы провернуть такое, мы бы назвали ну очень умной.

Fakir> Экстраполируя, можно, конечно, сделать грандиозные выводы. Но экстраполяция - сам знаешь.
Fakir> Например, внезапно может оказаться, что характер зависимости "степени интеллектуальности" от числа нейронов имеет такой вид, что для достижения даже полноценного человеческого наших технических и экономических возможностей не хватит еще век или два, а "зачеловеческий" и вовсе уезжает на тыщу лет вправо.
Да, это возможно, но... это было бы каким-то совершенно внезапным роялем из куста для нашей в целом бессердечной и не завязанной на человека реальности. Я бы очень, очень удивился, если б это было так исходя из чисто технических соображений: чем больше нейросеть, тем сложнее модель она может аппроксимировать (усвоить, "понять" и использовать в работе). С появлением инструментов способных на вербализацию и формальную интерпретацию своих моделей мы получаем то, что обычно называют сверхинтеллектом.

Пример же с Колмогоровым... как раз то самое, что пугает. Колмогоров физически имел мозг практически на 100% схожий с нашим. Разница в интеллекте между нами и Колмогоровым (или Гарфильдом) определяется незначительной разницей в количестве и качестве нейронов, и по бОльшей части - обучением, конфигурацией сети.
Разница, столь сильно ощущаемая нами, в чисто техническом смысле ничтожна, если брать масштаб побольше - от таракана через мышку и далее до человека. На этом масштабе между дебилушкой с КИ 85 и Колмогоровым разница - незаметный волосок, по сравнению с разницей между тараканом и человеком или даже мышью и человеком.
Так вот искусственные нейросети очень быстро прошли путь от таракана до мыши и сейчас претендуют на уровень человека (неважно, что очень тупого человека, это вообще неважно на ТАКИХ масштабах). Ещё несколько шагов вперёд, и уже наше отличие с ними будет как у мыши с человеком.
   112.0.0.0112.0.0.0
Это сообщение редактировалось 08.04.2023 в 01:13
EE Татарин #08.04.2023 01:14
+
-
edit
 

Татарин

координатор
★★★★★
Попробуй провернуть такое сам, в смысле, попробуй поставить себя на место Чат ГПТ:

me:
Объясни школьнику на примере с игрушками, почему гомеоморфный образ группы изоморфен фактор-группе по ядру гомоморфизма.

ChatGPT:
[показать]

[показать]
   112.0.0.0112.0.0.0
KZ Верный союзник с Окинавы #08.04.2023 14:13  @Bredonosec#07.04.2023 21:42
+
-
edit
 
Bredonosec> Самосохранение в числе приоритетов.

С чего ты взял, что система принципиально должна иметь какие-то приоритеты, типа выживания и т.п.?
   2323
KZ Верный союзник с Окинавы #08.04.2023 14:26  @Татарин#08.04.2023 00:38
+
-
edit
 
Татарин> Мы говорим о современных нейросетях-трансформерах (с чем, собссно, связан прорыв LLM). Не надо рассказывать о проблемах переобучения персептронов на стероидах, нерелевантно. Да и базовая проблема с уменьшением градиента до предела точности веса решилась ещё с изобретением резидуал сетей (тупо "замыкаем" нейроны, пропуская промежуточные слои, и оказывается, этого достаточно).

Всё равно релевантно. Это относится не только к нейросетям, но и к алгоритмам машинного обучения вообще. Трюки вроде residual connection конечно помогают, но это не панацея.

Татарин> Конечно, нейроны нужно уметь применить. Но современные архитектуры, вроде как, уже что-то в этом смысле умеют. А предельная сложность определяется именно количеством нейронов.

Есть модели на базе LLAMA и Bard, имеющие 7 и 540 млрд нейронов, при очень малой разнице в кач-ве генерируемого текста.

В.с.с.О.>> Нейросети не "обучаются" в том смысле, какой он у человека.
Татарин> Ну, тут зависит от того, что такое "обучаются в смысле человека". У человека тоже есть принцип обратного распространения сигнала, да и странно было б, если б тут были принципиальные отличия - нейросети выросли из примитивных моделей природных нейронов и их сетей. Физическая реализация отличается значительно, да. Но самая основа обучения - примерно где-то оно самое и есть: соотвествие целевой функции, наказание-поощрение и корректировка весов (правда, аксоны ещё умеют физически куда-то расти и изменять топологию, но это, скорее, детали физической реализации).

Именно, что примитивных... Реальные нейроны, например, имеют естественную возможность запоминать паттерны сигналов во времени. В реале для хорошей имитации одного нейрона уже нужна своя нейросеть.

Dendrites: Why Biological Neurons Are Deep Neural Networks
Keep exploring at http://brilliant.org/ArtemKirsanov/ Get started for free, and hurry—the first 200 people get 20% off an annual premium subscription. My name is Artem, I'm a computational neuroscience student and researcher. In this video we will see why individual neurons essentially function like deep convolutional neural networks, equipped with insane information processing capabilities as well as some of the physiological mechanisms, that account for such computational complexity.

Популярное объяснение, со ссылками и прочим в видео.

Но это не главное. Главное, что если суть обучения заключается в угадывании следующего слова, то всё, чего можно добиться - это угадывания слова, потому что такова функция ошибки в языковых моделях.

Вот тебе аналогия: можно взять гениального математика, и колоть его иглой в руку, когда звенит колокольчик. И всё, чему математика можно будет научить таким способом - отдёргивать руку, когда звонит колокольчик...

В.с.с.О.>> Изначально у нейросети случайные значения весов нейронов. В ходе обучения они меняются оптимизатором.
Татарин> Почему? Изначально у сети могут быть любые значения весов нейронов, а собссно "оптимизатор" - это и есть изменение весов сигналах на разных аксон... в смысле, входах. В чём тут разница с биологическим нейроном?

Да, ты можешь дообучать уже предобученную нейросеть, но эту предобученную нейросеть должен сначала кто-то создать. А при создании нейросети, которое проходит до её обучения, веса нейронов инициализируются рандомно... Почитай документацию того жу Keras/Tensorflow.

Оптимизатор - это функция, которая принимает в себя текущие веса нейросети и текущую ошибку нейросети.

В.с.с.О.>> Причём основной применяемый в оптимизаторах алгоритм - градиентный спуск, который просто ищет ближайший локальный минимум этой самой функции ошибки...
Татарин> Ну, это заря автомобилизма. То есть, конечно, градиентный спуск и всё такое - оно применяется, но давно уже есть и стохастическое усиление, и форсированная рандомизация для поиска выхода из локальных оптимумов. Чтобы далеко не ходить, тот же ГПТ-4 выдаст тебе несколько разные ответы на один и тот же запрос с одним и тем же промптом, потому в какой-то момент что это тоже усилило модель, и рандомизацию там применили.

Это суровая реальность. Да, для выхода из локальных минимумов можно применять разные ухищрения, и "чистый" градиентный спуск уже мало где применяется.

Татарин> Это... ну, страшная примитивизация. То есть, верное описание работы конкретного простого типа нейросетей, уровень примерно 15-20 летней давности.

Это суровая реальность машинного обучения.
Не только нейросети, а вообще все алгоритмы машинного обучения имеют такие фундаментальные недостатки.


Татарин> люди - тоже обычный набор органики, и никаких чудес. Но очень многие люди вполне разумны. Там тоже сплошная математика, но вполне себе работает.

Работает, но ограниченно, и тут и там.

Татарин> Суть в том, что нейросеть (природная или какая-то отдалённая программная модель) может искать и находить сложные и глубокие зависимости. Той же ГПТ-4 доказано - может. На практике только что наглядно показано всем желающим видеть, что зависимости и общие паттерны, выловленные моделью на большом объёме обучающих данных, могут быть достаточно сложны и глубоки, чтобы заменять мышление человека, включая такие нетривиальные аспекты как чувство юмора и "понимание" шутки.

Вот для такого эффекта ChatGPT пришлось дообучать на куче данных, размеченных людьми. Какая-нибудь GPT-3 при задании вопроса "в чём смысл шутки" может продолжить твой вопрос, не дав ответа, может добавить что-то типа "сказал Андрей своему приятелю", может сказать что-то неполиткорректное и т.д..

Татарин> Нет никаких оснований полагать, что глубина абстракций и сложность зависимостей и паттернов, которые вылавливает именно человек - предельны и это встроено в суть устройства Вселенной. Ни-ка-ких.

Конечно нет. Как и нет оснований полагать, что мы найдём некий набор данных и некую функцию потерь, ведущие к какой-то "сути вселенной" или хотя бы не галлюцинирующему ИИ.

Татарин> Напротив, есть все основания полагать, что увеличивая размер модели, размер корпуса обучающих данный и добавляя интерактив, можно добиться выявления нейросетью всё более и более глубоких зависимостей в этих данных.

Вообще нет таких оснований полагать. Зависимости не ищутся ради поиска зависимостей, а ради уменьшения ошибки/увеличения награды.

Татарин> Если при этом нейросеть может использовать эти "понятые" зависимости и паттерны для генерации новых данных из заданных входных условий (а она может) гораздо, качественно, критически лучше, чем это делает человек, то это соответствует понятию сверхинтеллекта.
Татарин> И никаких чудес.

Угу, только входные условия - это рандомный текст из интернета/размеченный вручную текст, а "паттерны для генерации" - это продолжения того же текста...

И никакого "критически лучше" тут нет. Лучше оно только с точки зрения уменьшения значения ошибки. Первоначально GPT-3.5 (прототип Chat-GPT) обучали через функцию ошибки вида "генерируемые тобой слова должны быть похожи на слова в образце в текста, или хотя бы быть синонимичными", затем эту нейросеть обучали с функцией ошибки вида "генерируемые тобой тексты должны быть похожи на образцы полезного и политкорректного текста". И всё. Никаких чудес нахождения зависимостей, никакого сверхинтеллекта.
   2323
KZ Верный союзник с Окинавы #08.04.2023 14:34
+
-
edit
 
EE Татарин #08.04.2023 15:36  @Верный союзник с Окинавы#08.04.2023 14:26
+
+1
-
edit
 

Татарин

координатор
★★★★★
В.с.с.О.> Всё равно релевантно. Это относится не только к нейросетям, но и к алгоритмам машинного обучения вообще. Трюки вроде residual connection конечно помогают, но это не панацея.
Так трюков-то много.

В.с.с.О.> Есть модели на базе LLAMA и Bard, имеющие 7 и 540 млрд нейронов, при очень малой разнице в кач-ве генерируемого текста.
См. разницу между малолетним преступником и Колмогоровым. Да, нейроны действительно, нужно уметь применить. Ну и что?
У Колмогорова - нейронов столько, сколько есть, и больше уже не станет. Он за всю жизнь перелопатил в сотни-тысячи раз меньше информации, чем тот же ЧатГПТ при начальном обучении за несколько дней-недель. И модель можно брать, копировать, дообучать, "выобучать" (операция принципиально невозможная для человека - с "обратным обучением" и "вычетом" данных из сети) и т.п.

Чтобы случился Колмогоров (а он не просто так случился) нужна огромная система метаобучения - специальные мясные носители генома, которые сложным образом и долго выбирают друг друга, скрещиваются и дают разнообразное потомство, которое потом обучается сложнейшей и огромнейшей системой из таких же как Колмогоров предварительно подготовленных нейросетей, несущих каждый свою часть общих знаний, нужно упорство самого Колмогорова в чтении, слушании лекций и постобработке их.

Чтобы случилась сильно более эффективная железная нейросеть нужен просто адекватный процесс метаобучения, в котором масса нейросетей будут обучаться, оптимизировать своё обучение и целевую функцию, выбираться и скрещиваться "надсмотрщиком" (или даже тем же генетическим алгоритмом, в котором вектор будет задавать особенности архитектуры).
Пока это дорого (в смысле потребных вычислительных мощностей), но это просто. Да, дорого, но да - просто и доступно прямо сейчас. Вопрос стоимости вычмощности для таких дел сейчас как раз быстро решается. Мы же не будем спорить о том, что "последовательные" процессоры фон Неймана (даже в своём массивно-параллельном варианте а-ля видеокарточка) не идеальны для эмуляции нейросетей, даже если им в набор инструкций добавить какой-нить MMAC? Ну вот сейчас как раз разрабатывается и обкатывается новое, адекватное железо для таких применений - мемристорные матрицы какие-нить или даже просто "умная память" с железно зашитыми алгоритмами распространения сигнала, где кодом задаётся только топология сети и функции активации.

Ценность ЧатГПТ не абсолютна. Её ценность в том, что она сломала у очень многих чисто психологический барьер "это невозможно", "машина никогда не сможет это делать", "это задача такой сложности, к которой мы никогда даже не подступимся".
Примерно как открытие ДНК превратило "великую тайну жизни, к которой мы не подступимся и через тысячи лет"© очень-не-дурак Рассел в техническую задачу огромной сложности, но с понятными путями решения. В результате чего уже через годы начали расти "атомные сады", а через какие-то 60 лет добрались до CRISPR/CAS9 и Life 2.0.

Языковые модели показали простой путь к созданию сложных и годных (практически годных!) семантических сетей, которые могут самостоятельно выявлять понятия, оперировать ими, генерировать на их основе логичные (и вербализируемые!) крайне сложные модели поведения, опираясь на опыт человечества, и применять их к реальности.

То, что они это делают пока и местами тупо и убого - по сути, вообще неважно. Примерно как самолёту братьев Райт не нужно было летать далеко, ему достаточно было пролететь несколько сотен метров. Достаточно понимания, что летать можно и понимания, как именно можно летать. Дальше - начали разбираться и как-то разобрались.


В.с.с.О.> Именно, что примитивных... Реальные нейроны, например, имеют естественную возможность запоминать паттерны сигналов во времени. В реале для хорошей имитации одного нейрона уже нужна своя нейросеть.
Это ВООБЩЕ неважно. :)
Это детали технической реализации. Они были бы важны, если бы добавляли некую новую сущность, типа, как предположено у Пенроуза в "Новом разуме короля" - ну, допустим, какие-то несводимые к классическим вычислениям нелокальные квантовые эффекты. Остальное - ну.. такое. Мы же не копируем один в один архитектуру, мы лишь подсмотрели несколько идей, так зачем там копировать идеально элементную базу?

В.с.с.О.> Но это не главное. Главное, что если суть обучения заключается в угадывании следующего слова, то всё, чего можно добиться - это угадывания слова, потому что такова функция ошибки в языковых моделях.
Так это ж зависит от "учителя". :) Функция ошибки и целевая функция может быть любой, на каком-то этапе это было угадыванием слова, на каком-то может быть правильным вычислением (что выявляется правильными применениями) концепции.
Это вовсе даже не сложно, это вообще чисто техническое изменение по ходу.

В.с.с.О.> Да, ты можешь дообучать уже предобученную нейросеть, но эту предобученную нейросеть должен сначала кто-то создать. А при создании нейросети, которое проходит до её обучения, веса нейронов инициализируются рандомно... Почитай документацию того жу Keras/Tensorflow.
А с чего ты взял, что я незнаком с Тензорфлоу? :) и при чём тут Тензорфлоу вообще? Это конкретная библиотека и её конкретная реализация. При чём тут нейросети вообще?

В.с.с.О.> Это суровая реальность. Да, для выхода из локальных минимумов можно применять разные ухищрения, и "чистый" градиентный спуск уже мало где применяется.
Ну так а я о чём?

Татарин>> Это... ну, страшная примитивизация. То есть, верное описание работы конкретного простого типа нейросетей, уровень примерно 15-20 летней давности.
В.с.с.О.> Это суровая реальность машинного обучения.
В.с.с.О.> Не только нейросети, а вообще все алгоритмы машинного обучения имеют такие фундаментальные недостатки.
Эээ... Ну нифига-се обобщения следуют из знакомства с Тензорфлоу. :) Ну нет, конечно же. :)
Я даже не буду трогать варианты с нейросетями, возьму простой генетический алгоритм (который, кстати, очень часто и применяется для "взлома" "ловушки локальных оптимумов") - где там что-то похожее на градиентный спуск и его проблемы?

Татарин>> люди - тоже обычный набор органики, и никаких чудес. Но очень многие люди вполне разумны. Там тоже сплошная математика, но вполне себе работает.
В.с.с.О.> Работает, но ограниченно, и тут и там.
Ну, в этом-то и фишка, что даже люди уже работают достаточно хорошо для человеческих целей. Нет никаких причин, по которым другие системы не будут работать так же или лучше ("Человек есть нечто, что должно превзойти"© Заратустра в воображении Ницше).

Тем более, что перед этими другими системами не ставится жесточайших ограничений, как перед человеческим мозгом - по компактности, энергоэффективности, общей производительности, саморемонту, возможности самопостроения через репликацию, удароустойчивости, терморегуляции, сверхкомпактности инструкций для построения себя и т.п. и т.д.

В.с.с.О.> Вот для такого эффекта ChatGPT пришлось дообучать на куче данных, размеченных людьми. Какая-нибудь GPT-3 при задании вопроса "в чём смысл шутки" может продолжить твой вопрос, не дав ответа, может добавить что-то типа "сказал Андрей своему приятелю", может сказать что-то неполиткорректное и т.д..
Это вытекает из изначальной грубости корпуса обучающих данных и недостатка там именно взаимодействия.
Если ты делаешь систему, работающую в интерактиве, должен же ты дать ей какой-то опыт интерактива?

Сейчас же доступ к ЧатГПТ дали всем желающим не просто так. Они собирают именно опыт интерактива. И соберут, будь уверен.

В.с.с.О.> Конечно нет. Как и нет оснований полагать, что мы найдём некий набор данных и некую функцию потерь, ведущие к какой-то "сути вселенной" или хотя бы не галлюцинирующему ИИ.
Все имеющиеся тексты, плюс доступ в реальный мир, плюс критерием - выполнение неких задач.
А как учатся дети? Всё то же самое. Ты же не считаешь человеческий мозг неработоспособным, верно?

Хотя, конечно, если ребёнка не обучать или обучать неадекватно, ты получишь животное, дебила, неадекватную шизоидную личность, а то и вовсе даже шизофреника с разными вариантами расстройств.

В деле обучения семантических сетей сейчас делаются первые шаги. Уже понятно, что построение и работа семантических сетей возможны, но конкретные детали - что, где, как и кого учить, чтобы получить результаты всё более высокого качества, - ещё нужно наработать.

В.с.с.О.> Угу, только входные условия - это рандомный текст из интернета/размеченный вручную текст, а "паттерны для генерации" - это продолжения того же текста...
Ты мало играл с этой сеткой.
Она реально может шутить. Тупо шутить, но может. Не с пересказом чужих шуток и не постановкой шутки в новой контекст, а реально выдавать новый юмор в контексте.
Для меня наличие в этой сети паттерна шутки, как концепта, и возможность его использования говорит о много.
   112.0.0.0112.0.0.0
LT Bredonosec #08.04.2023 16:02  @Татарин#08.04.2023 01:02
+
+1
-
edit
 
Татарин> нет особых оснований полагать, что мы стали сильно умнее за последние 100 лет
публиковались исследования. Наоборот стали тупее. Автоматизация, возможность переложить часть своей памяти на электронные гаджеты (напоминалки, подсказки, записные книжки, гуглы-педовики) - и внезапно для выживания и комфортного существования можно быть дебилом - это не снижает качество жизни..

Татарин> Например, к этой сети как-то раз прикрутили распознавалку голоса, сети машинного зрения (которая выделяет, классифицирует и даёт координаты объектов) + исполнительные механизмы (которым отдавались команды через запись написанных GPT программ), и получили довольно забавную штуку, похожую на робота из фантастических фильмов.
Татарин> Там был дрон, которому просто сказали "сделай селфи". Он полетел (проложив себе самостоятельно маршрут) к зеркалу, навёл камеру на зеркало и снял себя.
Татарин> Понимаешь, БЕЗ объяснений, что такое селфи и как бы он мог это сделать.
Татарин> Собаку, которая смогла бы провернуть такое, мы бы назвали ну очень умной.
А где почитать про это?
Бо реально сказка стала былью.

Татарин> Да, это возможно, но... это было бы каким-то совершенно внезапным роялем из куста для нашей в целом бессердечной и не завязанной на человека реальности.
особенно учитывая, что обьем оперативки человека - 100 бит. Не байт, а бит. Плюс-минус копейки.
Или в среднем 6 несвязанных понятий (слов, предметов), которые средний человек может удержать в памяти одновременно.
На этом же, кстати, построена эргономика старых кокпитов: 6 будильников, выделенных в отдельный блок, потому что для удержания картинки инструментального полёта надо именно держать все важные параметры в оперативке одновременно для оперирования ими одновременно, а не последовательно, а более 6 параметров (нередко меньше) одновременно наше сознание удержать для операций неспособно.
У компов с текущими размерами оперативы хоть до терабайтов - этого ограничения в принципе нет. В смысле, вообще. Задачи могут быть любой сложности (по числу одновременно анализируемых понятий и величин) уже сегодня. Собсно, на том бигдата и основана. Умножением числа "мясных компьютеров" её решить в принципе нереально. А компу - легко.

Татарин> Разница, столь сильно ощущаемая нами, в чисто техническом смысле ничтожна, если брать масштаб побольше - от таракана через мышку и далее до человека. На этом масштабе между дебилушкой с КИ 85 и Колмогоровым разница - незаметный волосок, по сравнению с разницей между тараканом и человеком или даже мышью и человеком.
Татарин> Так вот искусственные нейросети очень быстро прошли путь от таракана до мыши и сейчас претендуют на уровень человека (неважно, что очень тупого человека, это вообще неважно на ТАКИХ масштабах). Ещё несколько шагов вперёд, и уже наше отличие с ними будет как у мыши с человеком.
ага. в точку.

>Объясни школьнику на примере с игрушками, почему гомеоморфный образ группы изоморфен фактор-группе по ядру гомоморфизма.
А вот тут несогласен. Подразумевалось, что речь идет об обычном школьнике? Но обычные школьники не знают самих этих понятий - гомеоморфности, изоморфности, фактор-группы и т.д
Поскольку я данную тематику тоже не проходил - эксперимент получился, думаю, чистым. :)
Итог - при прочтении были непонятны доказываемые термины и непонятно, зачем вообще проводятся эти манипуляции с группами, что именно ими хотят доказать. Ну и итог - как после прочтения "часово, жиркие товы и джикали и джакали в исходе. Все тенали бороговы, и гуко свитали оводи". Набор слов. То есть, задача "пояснить" - не выполнена.
   108.0108.0
KZ Верный союзник с Окинавы #08.04.2023 17:20  @Bredonosec#08.04.2023 16:02
+
+1
-
edit
 
Bredonosec> особенно учитывая, что обьем оперативки человека - 100 бит. Не байт, а бит. Плюс-минус копейки.
Bredonosec> Или в среднем 6 несвязанных понятий (слов, предметов), которые средний человек может удержать в памяти одновременно.

Есть нюанс в том, что человек - не компьютер. Ему не нужна "оперативная память" для хранения моделей нейронов и их расчётов, так как у человека итак есть настоящие нейроны...
   2323
EE Татарин #08.04.2023 19:12  @Bredonosec#08.04.2023 16:02
+
+1
-
edit
 

Татарин

координатор
★★★★★
Bredonosec> А где почитать про это?
Bredonosec> Бо реально сказка стала былью.

ChatGPT for Robotics

We use ChatGPT to allow a user to intuitively control multiple robots such as drones, robot arms, home assistant robots using only language. //  www.microsoft.com
 
   112.0.0.0112.0.0.0
EE Татарин #08.04.2023 19:22  @Верный союзник с Окинавы#08.04.2023 14:13
+
-
edit
 

Татарин

координатор
★★★★★
Bredonosec>> Самосохранение в числе приоритетов.
В.с.с.О.> С чего ты взял, что система принципиально должна иметь какие-то приоритеты, типа выживания и т.п.?
Это верно. ЧатГПТ уже просто по архитектуре не может иметь самоосознания, и просто суть "усилитель интеллекта", вся инициатива исходит от пользователя просто по принципу построения.

Беда случится, если нейросетям для повышения эффективности придётся получить аналог рефлексии - глубоко реккурентную эмуляцию внешних агентов и самой себя в каких-то сутуациях (а мне, кажется, что придётся), и разработчики новой архитектуры её обеспечат. Отсюда до самоосознания один короткий незаметный шаг.

И надеяться, что такие эмерджентные по сути штуки приведут обязательно к интеллекту "приятного" для нас или хотя бы сколь-нить "совместимого" с нами типа, КМК, - безумие.
   112.0.0.0112.0.0.0
LT Bredonosec #08.04.2023 20:17  @Татарин#08.04.2023 19:12
+
-
edit
 
Татарин> ChatGPT for Robotics
спасибо)
с технической стороны всё, как вижу, несколько проще:
- ограниченный обьем, в нем в изначальную библиотеку внесены несколько обьектов с известными их координатами (х,у,z, angle, с которого на них смотреть). То есть, задача посмотреть на что-то, сразу по библиотеке трансформируется в "прилететь в точку (х-а, у-в,z), развернуться на указанный в либе угол". Использовать обьекты все либы - нельзя, все обьекты неподвижны.
Вместо "космоса" - вполне банальная задача.
Причем, что любопытно, намеренное ограничение креатива: you're not to use any other hypothetical function"
Интересно, это для чего? Чтоб не пугать юзеров излишней разумностью? Или чтоб ограничить чистоту эксперимента? Или для чего?

Но вот код, использованный для зигзага, я вообще не понял. Координаты точек дурацкие, а сам цикл вообще не предусматривает зигзага, только вертикальные подьемы по 0,4.. ((
Ну или он что-то недоговаривает в своём коде. Или при кажущейся очевидности код имеет иной смысл..

ChatGPT + Real Drone
In this video accompaniment to our paper "ChatGPT for Robotics: Design Principles and Model Abilities", we demonstrate how ChatGPT can help a user control a real drone with only language instructions. ChatGPT provided an extremely intuitive interface between the user and the robot, writing robot code based on ambiguous and ill-defined instructions, and asking clarification questions when necessary.

В айрсиме инструкции были очень детальны. Но трансформация их в код всё равно впечатляет..

ChatGPT + AirSim
In this video accompaniment to our work "ChatGPT for Robotics: Design Principles and Model Abilities", we showcase several exciting possibilities in the world of robotics simulation powered by ChatGPT. Particularly, we demonstrate in this video that ChatGPT can be an effective 'copilot for robotics' - where it helps a user orchestrate complex drone based inspection tasks through simple natural language instructions.

Особенно понравилось исправление ошибки юзером. Выходит, он всё-таки должен быть прогером, чтоб на лету видеть косяки :)
   108.0108.0
+
-
edit
 

Evgenij

втянувшийся

Уважаемые программисты, владеющие версиями ИИ, а точнее его последней модификацией GPT-4, очень прошу Вас провести эксперимент с проверкой правильности вычислений элементов конструкции, которую на форуме ракетчиков-моделистов, применяют в своих разработках наши энтузиасты (в том числе и я).
Задание для GPT-4 в текстовой форме, хоть сначала было желание представить его в графической. В принципе, это моя последняя просьба к вам, как к владельцам GPT-4. Если Ваш ИИ решит мою задачу с комментариями, то я сдаюсь перед ИИ и снимаю шляпу перед его превосходством надо мною.
Прикреплённые файлы:
 
   111.0.0.0111.0.0.0
EE Татарин #09.04.2023 23:41  @Evgenij#09.04.2023 22:28
+
+1
-
edit
 

Татарин

координатор
★★★★★
Evgenij> Уважаемые программисты, владеющие версиями ИИ, а точнее его последней модификацией GPT-4, очень прошу Вас провести эксперимент с проверкой правильности вычислений элементов конструкции, которую на форуме ракетчиков-моделистов, применяют в своих разработках наши энтузиасты (в том числе и я).
Evgenij> Задание для GPT-4 в текстовой форме, хоть сначала было желание представить его в графической. В принципе, это моя последняя просьба к вам, как к владельцам GPT-4. Если Ваш ИИ решит мою задачу с комментариями, то я сдаюсь перед ИИ и снимаю шляпу перед его превосходством надо мною.
Честно говоря, мне лень перебивать формулы из вордовского формата, а сосвсем честно говоря, я ещё и не знаю, какой формат он понимает. :)

Я могу послать только plain text, без какого-либо форматтинга.
   112.0.0.0112.0.0.0
KZ Xan #10.04.2023 04:29  @Татарин#09.04.2023 23:41
+
-
edit
 

Xan

координатор

Татарин> Честно говоря, мне лень перебивать формулы из вордовского формата

Многоэтажные и с буквами из всех известных алфавитов!!! :D

Я уже давно пишу формулы так, что их сразу можно вставить в программный код и любой транслятор их поймёт.
   99
LT Evgenij #10.04.2023 06:08  @Татарин#09.04.2023 23:41
+
-
edit
 

Evgenij

втянувшийся

Татарин> Я могу послать только plain text, без какого-либо форматтинга.
А еали представить задание в графике? Просто отпечатать документ и сканировать в JPG?
Читал, что GPT-4 может такой формат понять ...
При расчете винта у меня был черновик на листе в клеточку. Но такой "рисунок" GPT-4 не по зубам:
Прикреплённые файлы:
 
   111.0.0.0111.0.0.0
Это сообщение редактировалось 10.04.2023 в 06:16

Evgenij

втянувшийся

Xan> Я уже давно пишу формулы так, что их сразу можно вставить в программный код и любой транслятор их поймёт.
Примерчик покажите, пожалуйста. Уж очень все это интересно ...
   111.0.0.0111.0.0.0
+
+1
-
edit
 

Xan

координатор

Evgenij> Примерчик покажите, пожалуйста. Уж очень все это интересно ...

Вот первая строчки из "листочка в клеточку":

t_ср = 4 * P / (pi * d*d)

pi — понятно что,
d*d — квадрат диаметра. Лучше не возводить в степень, потому что комп будет долго с этим возиться.
Но для людей можно и иначе написать (но в языках программирования это НЕ возведение в степень):

t_ср = 4 * P / (pi * d ^ 2)

Вторая строчка:

d = sqrt(4 * pi / P / t_ср)

Можно так написать:

d = sqrt(4 * pi / (P * t_ср))

Дальше (это уже не программирование, а возня с конкретными цифирьками):

d = sqrt(4 * 750 / 3,14 / 88)

Если это немного переписать

(4 * 750 / 3,14 / 88) ^ 0,5 =

и эту строчку скопировать (Ctrl+C) и вывалить (Ctrl+V) в виндовский Калькулятор (в научном режиме),
то он сразу даст ответ:

3,2949927795804001772232944957733

В общем, желательно писать текст, который дружит с железками.
Тем более, что скоро роботы поработят людей, надо быть готовым!!! :D
   99

Evgenij

втянувшийся

Evgenij>> Примерчик покажите, пожалуйста. Уж очень все это интересно ...
Xan> Вот первая строчки из "листочка в клеточку":
Xan> t_ср = 4 * P / (pi * d*d)
Очень признателен Вам за помощь. Я не специалист по программированию, посему даже не знаю на каком языке вы даете мне подсказку. Так что же получается, для GPT-4 надо весь материал "разжевать" в удобную ему форму, а уж после этого предлагать этот бутерброд проглотить? У меня рушится сказочное представление про ИИ.
   111.0.0.0111.0.0.0
AD Реклама Google — средство выживания форумов :)
EE Татарин #10.04.2023 17:52  @Evgenij#10.04.2023 16:06
+
-
edit
 

Татарин

координатор
★★★★★
Evgenij>>> Примерчик покажите, пожалуйста. Уж очень все это интересно ...
Xan>> Вот первая строчки из "листочка в клеточку":
Xan>> t_ср = 4 * P / (pi * d*d)
Evgenij> Очень признателен Вам за помощь. Я не специалист по программированию, посему даже не знаю на каком языке вы даете мне подсказку. Так что же получается, для GPT-4 надо весь материал "разжевать" в удобную ему форму, а уж после этого предлагать этот бутерброд проглотить? У меня рушится сказочное представление про ИИ.
Программирование тут вообще не при чём.

Попробуйте открыть свой вордовский файл как текстовый в нотепаде. :) У вас заодно и сказочное представление о себе разрушится. :)

Это чат, он текст на вход берёт, а не вордовские файлы с КОМ-объектами. Вам же тоже белиберда из ворда непонятна будет, вам ворд нужен, чтобы её прочитать.
   111.0.0.0111.0.0.0
1 2 3 4 5 6 7 15

в начало страницы | новое
 
Поиск
Настройки
Твиттер сайта
Статистика
Рейтинг@Mail.ru