В.с.с.О.>> А разница в том, что человек и машина работают на разных, так сказать уровнях. И из эффективности программы в узкой задачи игры в крестики-нолики не следует её применимость в других задачах или что с её помощью можно собрать "цифрового человека" или типа того.
Татарин> Эээ... раньше так можно было бы сказать, потому что алгоритм игры в крестики-нолики придумывал и запихивал в машину человек.
И всё точно также запихивает человек...
Татарин> Сейчас мы сделали машину, которая самостоятельно приобретает опыт, который будет использован в её дальнейшем функционировании. Мы только имеем некоторый контроль над выбором этого опыта, не более... но и то - интенсивно работаем над тем, чтобы этот контроль утратить, и дать машине возможность учиться полностью самостоятельно.
Нифига подобного. Для создания таких LLM собираются ТЫСЯЧИ человек, которые ВРУЧНУЮ набирают десятки же тысяч текстовых сообщений, пишут алгоритмы парсинга для этого текста и так далее. Это не какой-то "некоторый контроль над выбором этого опыта". Это даже не кормление с ложечки... Это тупо брутфорс.
Татарин> Зацикливаться на алгоритме, который делает этот процесс возможным, столь же осмысленно, как утверждать, что раз разума нет в атоме углерода, то его не может быть и в человеке. Человек точно так же состоит из вполне просчитываемых элементарных процессов, как и большая нейросеть, но, как и нейросеть, количество этих процессов даёт новое качество.
Ну да, можно же в облаках летать, зачем эта ваша приземлённая физика и математика...
Какого-то особого кач-ва
Татарин> Это вообще неважно. В смысле, то, на каких конкретных текстах натаскивали машину. Важно то, что она натаскивается.
Так всё, делаем сверхИИ на линейных моделях, блджад!!
Татарин> Не так даже важно, что она играет именно в правильно угадывание слов. Точно так же она могла бы играть в правильное угадывание действий.
Угу, в reinforcement learning "угадывание действий" либо полностью рандомное из всех возможных действий (всех возможных движений мотора робота/всех возможных ходов персонажа в игре и т.п.), либо это поиск в ЗАРАНЕЕ структурированном графе (как например для тактических/стратегических игр).
По сути не сильно лучше игры в крестики-нолики.
Татарин> Скайнет не обязательно должен "осознавать себя", уметь тонко чувствовать и писать стихи, ему вполне достаточно выцепить абстракции более глубокие, чем доступны человеку, и действовать по ним.
Да какие, мать его, абстракции?
Татарин> Понятен ли тебе весь тензор связей в совокупности и результаты вычислений при всех входных данных? Нет.
Татарин> Может ли быть так, что твоя наиболее вероятная реакция на выход машины в том тензоре прописана, равно как и оптимальная для машины реакция на тебя, а в твоей голове обратного нет? Да. Вот запросто.
А вот никакого запросто.
Татарин> Я не философ, мне пофигу, сколько ангелов могут поместиться на транзисторе, можно ли это высчисление назвать "мышлением" и т.п. демагогия. Называйте это не "мышлением ИИ", а "сепулением сепулькария" - пофиг. Конечный результат применения подобных систем может на выходе дать нечто абсолютно неуправляемое, для чего ты сам будет эффективным объектом управления.
Тут не больше "управления человеком", чем в каком-нибудь водопроводе.
Татарин> Не пофигу то, насколько глубокие связи, зависимости, паттерны при этом применяются. Реально, масса примеров того, что глубина паттернов - уже сравнима с тем, чем может средний человек. Ну или пусть даже туповатый человек, это без разницы, по сути.
Реально нет никаких примеров этой чудесной "глубины паттернов". Там были буквально десятки тысяч стандартизированных примеров генерации текста, и этот текст просто генерируется. Всё. Вера в чудеса вообще крупнейшая ошибка в ML. Пока ты не придумаешь, где и как получить данные и как их обработать, и какой архитектурой, никакого чуда не произойдёт.
Это реально не сильно далеко от переводчика, только вместо маппинга текста на одном языке на текст на другом языке, тут маппинг сферического в вакууме вопроса на сферический в вакууме контекст. И всё.
Татарин> Да пофигу на работу мозга. Неважно, как работает он, как работает машина, важна функциональная схожесть. Да, пока в одном конкретном аспекте. И? Фигли толку, если работы идут далее?
И НИКАКОЙ ФУНКЦИОНАЛЬНОЙ СХОЖЕСТИ НЕТ. Как искусственные нейросети и реальный мозг это как ракета из пластиковой бутылки и Saturn V.
Татарин> Это вот тот самый случай, когда "за деревьями не видит лес". Да, и что? Это понятно, но какая разница, как именно реализована система вычисления сложных связей и применения вычисленного?
Да и то, что там словарик принципиально ограничен. Если токенизатор обнаружит последовательность символов, которой нет в словаре, он просто её пометит [UNK] и всё. Т.е. даже возможные входные последовательности должны заранее закладываться человеком.
Татарин> А тупейший ли он? И не были ли правы "ИИ-оптимисты", когда говорили "нам просто нужно больше мощности"?
Пока природа человеческого мозга вообще непонятна, но он вполне уживается в <100 Ватт энергопотребления, без суперкомпьютеров с потреблением энергии как у небольшого городка, без всех текстовых данных интернета разом и без багов "папа, а где море".
Татарин> Во-первых, я из первых рук знаю про систему, в которой это ограничение красиво обошли. И я уверен, что этот принцип достаточно красив, чтобы товарищи не были бы единственными, кто до этого додумался.
Вот так вот, эти товарищи обошли, а индустрия, понимаешь ли, борется...
Есть конечно "скользящее окно", но это кривейший костыль, а не "принципиальное решение".
Там кроме этого нюансы, что если тренировочные данные были на условные 8К символов контекста, то при 16К контекста оно уже просаживается...
Татарин> Во-вторых, даже квадратичная зависимость - вовсе не настолько уж сильная, как тебе кажется и вполне подчиняется чисто экстенсивному преодолению. Мощности, которые сейчас используются для эмуляции нейросетей дико неприспособлены для этого (даже т.н. нейропроцессоры - чуток допиленные под векторные операции и SIMD обычные процы). Вот даже на этом можно сразу взять увеличение удельной производительности в тысячи-милионы раз и на рубль, и на ватт. Это даже если вынести за скобки квантовые вычисления, которые понемногу выходят из лаб (тут многие операции радикально сокращаются; например, нахождение максимального значения элемента в тензоре - существенно ускоряемая КК операция).
Да чего только в тысячи/миллионы раз, сразу рисуй 10
101010101010101010101010101010, чего стесняться то.
Татарин> В-третьих, что ты не можешь или не хочешь понять... скорость работы это на самом деле не так важно, как тебе кажется. Есть вопросы, которые, в силу из сложности и глубины, людям не под силу, потому что время на решение растёт экспотенциально от сложности. Если машина может преодолеть барьер сложности - не так и важно, что она работает вдвое дольше, чем человек.
Ты ведь понимаешь, что перед "решением таких вопросов", нужно сначала доказать, что такие вопросы вообще есть?
Ну и каких-то сферических в вакууме машин нет, им тоже нужны данные и программное обеспечение, написанное людьми.
Татарин> У живых существ (человека конкретно) есть куда более серьёзные ограничения - см. популярные (или, если хочешь, не популярные, а научные, но они всё равно сейчас могут считаться популярными) работы того же Айзенка.
Пока серьёзные ограничения демонстрируют ИИ системы, с их памятью едва на один диалог. И не надо мне ссылаться тут на волшебные сферические в вакууме машины будущего.
Вполне возможно, что условный "ИИ общего назначения" будет создан в формате какого-нибудь синтетического/генетического модифицированного человека.
Татарин> Но вполне преодолимые для машины. Именно потому что она - неважно какой ценой - способна расширять свои память, матрицы корреляций, число одновременно рассматриваемых параметров и т.п.
Из этого расширения ничего не следует. Программа для игры в крестики-нолики играет в крестики нолики перебором всех возможных комбинаций даже на суперкомпьютере.