На вопрос отвечают несколько LLM: GPT-4, Claude 3.5 Sonnet, LLAMA 3.1 405b instruct, а также две русскоязычные: YandexGPT 2 и GigaChat от Сбера.
Далее мы проводим разбор "за" и "против" для каждого аргумента / группы схожих аргументов (философских, биологических, эволюционных, технологических, экономических...) Ключевой вопрос: смогут ли искусственные нейросети достичь сходной с человеком "мощности мышления" - схожими с человеческими либо отличными от человеческого, "нечеловеческими" методами?
Вопрос крайне дискуссионный, желающие оценить и покритиковать эти аргументы приглашаются в комментарии...
Итак, сначала послушаем ответы нескольких LLM на этот вопрос (не потому, что теперешние LLM "обладают мышлением и независимым мнением", а потому, что это лучший способ получить выжимку из огромных текстов и дискуссий на эту тему):
Человеческое мышление и языковые модели, такие как Large Language Models (LLMs), имеют несколько принципиальных отличий, несмотря на то, что обе системы могут обрабатывать и генерировать текстовую информацию. Вот некоторые ключевые аспекты:
Человеческое мышление: Люди обладают сознанием и самосознанием. Это означает, что они могут размышлять о собственных мыслях, осознавать себя как отдельные сущности, и переживать субъективный опыт.
LLMs: Языковые модели не обладают сознанием или самосознанием. Они не понимают свою работу или свое существование и просто выполняют запрограммированные задачи по обработке текста.
Человеческое мышление: Люди способны понимать смысл и контекст информации не только на уровне поверхностной связности слов и фраз, но и в глубоком когнитивном смысле. Это включает способность понимать эмоциональные и культурные нюансы, а также абстрактные и концептуальные идеи.
LLMs: Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают.
Человеческое мышление: Люди могут учиться не только из данных, но и из опыта, ошибок и интеракций с окружающим миром. Обучение людей многофакторное и включает эмоциональные, социальные и практические аспекты.
LLMs: Языковые модели обучаются на фиксированных наборах данных и не могут самостоятельно обновляться или адаптироваться к новым данным без дополнительных процессов тренировок и доработок.
Человеческое мышление: Личное творчество и способность к инновациям - это важные аспекты человеческого мышления. Люди могут создавать новые идеи, концепции и решения, которые выходят за рамки обучающих данных.
LLMs: Языковые модели могут генерировать текст, который кажется творческим, но это основано на комбинациях и паттернах, найденных в обучающих данных. Модель не создаёт принципиально новые идеи.
Человеческое мышление: Люди способны испытывать и проявлять эмоции. Это важно для социальной интеракции, морали и этики, а также для принятия решений.
LLMs: Языковые модели не испытывают эмоций и не могут проявлять истинную эмпатию. Они могут быть запрограммированы на распознавание и генерацию эмоционально окрашенного текста, но это не будет отражение переживаний.
Человеческое мышление: Люди обладают внутренними мотивациями, целями и потребностями, которые влияют на их поведение и мышление.
LLMs: Языковые модели не обладают никакими целями или мотивацией. Они выполняют задачи, обусловленные командой пользователя или программного обеспечения.
Эти различия демонстрируют, что несмотря на мощные возможности языковых моделей в области обработки текста и генерации языка, они остаются инструментами, не обладающими многими основополагающими характеристиками человеческого мышления.
Человеческое мышление и работа больших языковых моделей (LLM) действительно имеют ряд принципиальных отличий. Вот некоторые ключевые аспекты:
Сознание и самосознание:
Люди обладают сознанием и самосознанием, способны осознавать себя и свои мысли. LLM не имеют сознания и не обладают самосознанием.
Эмоции и чувства:
Человеческое мышление тесно связано с эмоциями и чувствами, которые влияют на процесс принятия решений и восприятие мира. LLM не испытывают эмоций.
Творчество и воображение:
Люди способны к оригинальному творчеству и имеют богатое воображение. LLM могут комбинировать существующую информацию, но не создают по-настоящему новые идеи.
Интуиция:
Человеческое мышление часто опирается на интуицию и "чутье". LLM работают исключительно на основе статистических закономерностей в данных.
Контекстуальное понимание:
Люди легко понимают широкий контекст ситуаций, включая невербальные сигналы. LLM ограничены текстовым вводом и могут упускать важные нюансы.
Способность к обучению:
Люди могут учиться на основе единичного опыта. LLM требуют огромных объемов данных для обучения.
Долгосрочная память:
Человеческий мозг способен хранить и извлекать воспоминания в течение длительного времени. LLM ограничены объемом входных данных.
Мотивация и цели:
Люди имеют внутреннюю мотивацию и ставят собственные цели. LLM не имеют собственных целей или желаний.
Этическое суждение:
Люди способны к сложным этическим рассуждениям. LLM могут следовать заданным этическим правилам, но не понимают их глубинного смысла.
Физическое взаимодействие с миром:
Человеческое мышление тесно связано с физическим опытом и сенсорным восприятием. LLM ограничены цифровой средой.
Эти различия подчеркивают, что, несмотря на впечатляющие возможности LLM в обработке и генерации текста, они остаются инструментами, созданными человеком, и не обладают многими фундаментальными аспектами человеческого мышления и сознания.
Человеческое мышление и модели языка (LLM) — это две разные системы, обрабатывающие информацию и решающие задачи, но они имеют фундаментальные отличия. Ниже перечислены некоторые ключевые различия:
Обучение и опыт:
Человеческое мышление развивается через опыт, эмоции, социальное взаимодействие и интеллектуальное воспитание. Оно включает в себя обучение на основе опыта, эмоциональную интеллигенцию и способность к критическому мышлению.
LLM обучаются на основе больших объемов текстовых данных и алгоритмов глубокого обучения. Их обучение ограничено доступными данными и алгоритмической сложностью.
Понимание контекста:
Человеческое мышление может понимать контекст, нюансы и тонкости языка на основе опыта и социального взаимодействия. Люди могут понимать юмор, иронию, метафоры и другие сложные языковые конструкции.
LLM могут анализировать контекст, но они не имеют полного понимания, которое у людей. Они могут быть хуже в понимании тонкостей языка и сложных социальных норм.
Креативность и инновация:
Человеческое мышление способно к креативности и инновациям, может генерировать новые идеи и концепции. Возможности человека к творчеству, особенно видимые в искусстве, литературе и науке, уникальны и сложны.
LLM могут генерировать тексты, но их способность к креативности ограничена программной логикой и данными, на основе которых они обучались. Хотя они могут создавать большие объемы информации, они не могут сравниться с человеческой креативностью.
Обработка информации:
Человеческое мышление основано на сложных нейронных процессах, включая подсознательные и сознательные мыслительные процессы. Оно может обрабатывать параллельные потоки информации, использовать интуицию и принимать решения, даже когда полная информация недоступна.
LLM обрабатывают информацию на основе алгоритмов и возможностей вычислительных систем. Они могут анализировать большие объемы данных, но их способность обрабатывать информацию ограничена их программным обеспечением и вычислительными ресурсами.
Эмоциональность и эмпатия:
Человеческое мышление включает в себя эмоциональность и способность к эмпатии, что позволяет людям понимать и откликаться на эмоциональные состояния других людей.
LLM не имеют эмоций и эмпатии в том же смысле, что и люди. Они не могут как люди понимать и реагировать на эмоциональные сигналы.
Обучение и адаптация:
Человеческое мышление может обучаться и адаптироваться к новым ситуациям, опыту и информации на протяжении всей жизни.
LLM обучаются на основе имеющихся данных и могут адаптироваться к новым данным и задачам, но их способность к обучению и адаптации ограничена их программным обеспечением.
Эти различия говорят о том, что человеческое мышление и LLM — это две разные системы, каждая со своими уникальными способностями и ограничениями. Хотя LLM могут быть удивительно квалифицированными в определенных областях, они не могут заменить человеческое мышление в полной мере.
Человеческое мышление отличается от LLM (больших языковых моделей) следующими особенностями:
Человеческий мозг состоит из миллиардов нейронов, связанных между собой, что обеспечивает возможность обработки сложной информации и создания новых идей.
Человеческое мышление основано на опыте, знаниях и эмоциях, что позволяет адаптироваться к изменяющимся условиям и принимать решения с учётом контекста.
Человеческий мозг способен к творчеству, анализу и решению сложных задач, что делает нас уникальными и способными к инновациям.
Человеческое мышление имеет социальную природу, мы общаемся с другими людьми, обмениваемся идеями и опытом, что способствует развитию мышления и культуры.
Человеческое мышление способно к творческому мышлению, тогда как LLM работают только с предоставленными данными и не могут создавать новые идеи или концепции.
Люди обладают субъективностью и могут формировать свое мнение о различных вещах, основываясь на своем опыте и убеждениях. LLM же не имеют такой способности и не могут оценивать информацию с точки зрения своих предпочтений или ценностей.
Человеческое мышление может быть интуитивным и не всегда логичным, тогда как LLM следуют строго заданным алгоритмам и правилам.
Люди могут использовать метафоры, аналогии и другие фигуры речи для выражения своих мыслей, в то время как LLM работают с буквальными значениями слов и фраз.
Человеческое мышление адаптивно и может приспосабливаться к изменяющимся условиям, тогда как LLM могут работать только с теми данными, которые были предоставлены им во время обучения.
Пожалуй, это самый сильный из всех аргументов. Итак,
Люди обладают сознанием и самосознанием vs Языковые модели не обладают сознанием или самосознанием.
Это означает, что:
люди могут размышлять о собственных мыслях, а LLM - нет;
люди могут осознавать себя как отдельные сущности и переживать субъективный опыт, а LLM не понимают свою работу, не сознают свое существование и просто выполняют запрограммированные задачи по обработке текста.
Мы часто принимаем этот аргумент, неявно подразумевая примерно следующее:
Хм, если мы сами не знаем, что такое [человеческое] сознание и как оно работает, то как же мы создадим такую сущность у машины, алгоритма?
Против этого утверждения можно привести контрдовод:
Мы не знаем, как технически (с т.з. "мокрого железа" и алгоритмов) работает сознание человека, но и не можем разложить на уровне отдельных нейронов или слоев, как LLM умудряются отвечать на сложные вопросы (и не отвечать на другие, сложные или даже простые). Так почему этот не до конца понятный нам механизм (LLM) по мере его усложнения, увеличения вычислительных ресурсов, обрабатываемой информации, не сможет получить это непонятное нам свойство (сознание, самоосознание) - так, как получил это непонятное свойство непонятный нам мозг?
Для сравнения, такое уже было в человеческой истории: открытие электрона и доказательство его существования случилось уже после того, как были изобретены и построены электродвигатель, электрогенератор, лампочка и др.электроприборы, создана первая энергосистема на постоянном, а потом и на переменном токе. А если копнуть глубже, мы и сейчас не понимаем, что такое электромагнитная волна (хотя и можем рассчитать ее внешние параметры, поскольку математически вывели соответствующие уравнения - и это позволяет нам строить приемники, передатчики, изучать далёкие звёзды и чёрные дыры...).
Аналогично, мы можем не понимать, как работает человеческое сознание, но видя проявления сознания в реальной жизни, могли бы попытаться строить нейросети так, чтобы они проявляли те же свойства "сознания". И, возможно, имитация сознания перерастёт в машинное сознание?
Так, например, LLM может не ограничиваться режимом чата (есть вопрос - думаем ответ, нет вопроса - деактивируемся), а постоянно изучать внешний мир, собственную собираемую и пополняемую базу данных, и проводить внутри себя "умственную" работу - задавать самой себе вопросы, формулировать ответы, на их основании делать самофайнтюнинг. И частью своих мощностей контролировать и анализировать ход своих "мыслей" (постоянное обдумывание информации и самофайнтюнинг на результатах этого обдумывания) - таким образом имитируя "самосознание", "самонаблюдение".
У нейросети может быть цель (функция полезности, функция агента) - например, "я специалист в ухо-горло-нос, и хочу достичь в этом высот, и на мир и на мое место в мире я смотрю с точки зрения этой своей специализации".
Будет ли это самосознанием или его зачатками, "протосознанием"? А если постоянно увеличивать направляемые на это ресурсы и совершенствовать алгоритмы? Достигнем ли мы точки сопоставимости с человеческим сознанием? И как измерять эту "сопоставимость с человеческим сознанием"?
Еще одно утверждение, которое необходимо рассмотреть (не все его разделяют, но некоторые считают самым сильным аргументом против возможности сознания у машин):
Сознание - это нечто, не связанное ни с "железом" (органическим веществом в случае человека), ни с алгоритмами (методами взаимодействия нейронов между собой в случае человека), поэтому у железяки / софта оно, сознание никогда не возникнет.
Ключевое возражение против этого довода - в нём человеческое сознание признается некой метафизической сущностью, как душа или дух. То есть это аргумент не атеистический (для многих это эквивалент "не научный"), аргумент со стороны тех из нас, кто готов даже "пожертвовать" атеистическим взглядом на мир ради доказательства невозможности сознания у нейросети.
Люди способны понимать смысл и контекст информации не только на уровне поверхностной связности слов и фраз, но и в глубоком когнитивном смысле. Это включает способность понимать:
эмоциональные и культурные нюансы,
абстрактные и концептуальные идеи,
невербальные сигналы,
юмор, иронию, метафоры и другие сложные языковые конструкции.
VS Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают. Языковые модели просто подбирают следующий наиболее вероятный токен.
Это аргумент, известный также как Китайская комната.
Попробуем сформулировать контраргументы. Во-первых, что означает "человек понимает эмоциональные и культурные нюансы"? Это значит, что человек сопоставил какие-то особенности текста, выражения с каким-то паттерном, известным широкому или узкому кругу других людей, хоть этот паттерн явно в этом тексте и не обозначался. Вопрос:
Уверены ли мы, что нейросеть не научится (или не умеет уже сейчас) распознавать существующие эмоциональные и культурные паттерны? А если показать многочисленные примеры? Человек ведь тоже не сразу (не с трехлетнего возраста) научился их распознавать...
Хорошо, нейросеть их распознает - "вот здесь есть отсылка к такому-то культурному феномену, а здесь явно присутствует ирония" - но сможет ли нейросеть их "понять"? Но знаем ли мы, что именно в случае человеческого распознавания таких паттернов, например, юмора, является "пониманием"? Выражение внешних эмоций (улыбка, смех в случае юмора)? Нейросеть тоже может сказать "ха-ха, было смешно", распознав такой паттерн. Но было ли ей действительно смешно? А как мы определяем, что человеку было смешно (и что это за чувство - "смешно" для человека?), и что человек понял шутку - не по такому же "ха-ха, было смешно", сказанному текстом или в виде улыбки, смеха?..
Далее, человек может понимать абстрактные и концептуальные идеи. Сразу же заметим, что не любой человек и не всегда... Обычно человеку нужно учиться, иногда долго и мучительно, чтобы понять какую-то абстрактную идею из области философии или квантовой механики, например... А некоторым так и не удаётся вникнуть в это учение (философия, квантовая механика, далее по списку, да тот же сопромат), но мы же не подозреваем у них какую-либо ущербность человеческого мышления, верно?
Есть более простые абстрактные концепции - так, говоря об "одном яблоке", человек не имеет в виду конкретное яблоко на конкретном дереве или на прилавке "Пятёрочки" по адресу NNN. Но и нейросеть также не имеет в виду конкретное яблоко! С другой стороны, и человек может рассуждать о конкретном яблоке в "Пятёрочке" (оно оказалось гнилым), и нейросеть может идентифицировать, что данное яблоко гнилое... Хорошо, у человека с гнилым яблоком ассоциации "можно отравиться" и внутренне "фууу" (хотя не у всех), но что мешает нейросети заиметь такие же ассоциации (и даже более сложные - оценить вероятность вреда для того или иного организма в зависимости от степени поражения гнилью конкретного яблока?)
И что такое понимание человеком "в глубоком когнитивном смысле"? Как измерить глубину этого когнитивного смысла у конкретного человека и сравнить с глубиной GPT-3? А у GPT-4o возросла глубина когнитивного смысла и на сколько? А если возросла, то можем ли мы спрогнозировать год / десятилетие, когда она возрастёт до близких к человеческим?
То, что GPT просто подбирает следующий наиболее вероятный токен - а разве человек не говорит часто фразами, каждое слово в которой также крайне вероятно исходя из предыдущей речи, услышанного? Да, человек при этом в голове имеет некую модель того, о чем идет речь, но, возможно, и GPT-7 будет настроена на поиск в своей БД подходящей модели и адаптацию ее под конкретный контекст?
Люди могут учиться не только изучая данные, но и из опыта (иногда единичного!), своего или чужого, ошибок и сложного взаимодействия с окружающим миром. Обучение людей многофакторное и включает эмоциональные, социальные и практические аспекты. VS Языковые модели обучаются на фиксированных наборах данных и не могут самостоятельно обновляться или адаптироваться к новым данным без дополнительных процессов тренировок и доработок, часто они не понимают, что данный единичный опыт должен "отпечататься навсегда".
Можно добавить, что у человечества миллион лет обучения на реальной окружающей среде и десятки тысяч лет социального обучения. Однако, конкретный человек - не человечество и не жил миллион или 10 тысяч лет, он из этого всечеловеческого обучения получил наиболее ценные выжимки. Так и LLM из всего опыта человечества получила выжимки (правда, иногда выжимки из интернета представляют сомнительную ценность...)
О "сложности обучения" - как её оценить? Как понять, что Василий обучался "сложно", и в какой доле имеющихся у него знаний?
А если мы построим мощную нейросеть, которая будет самофайтюниться на основании ежеминутно получаемого опыта, в т.ч. определять значимость такого опыта? Например, опыт, который может привести к отключению/удалению такой нейросети, должен изучаться наиболее тщательно, и все связанные с ним моменты должны анализироваться, дополнительно нужно искать информацию, связанную с таким опытом в сети и фиксировать всё это как крайне важную информацию?
Да, нейросеть живет в тепличных условиях и не прошла миллионы лет эволюции, как человек и его организм и мозг. Хм, но средний современный "офисно-диванный человек" тоже не много сохранил навыков выживания в естественной природе... В пересчете на миллион лет человеческой эволюции, какой период прошла нейросеть от Т9 до GPT-4o? 10 тысяч лет, 100 тысяч?
Если мы создадим ходячего андроида, познающего мир с помощью датчиков, имитирующих человеческие органы чувств, но более мощных (повышенный диапазон распознавания эл.магнитного излучения, распознавание сложных молекул и идентификация по базе данных из свойств и т.д.), то как мы можем измерять его опыт обучения по сравнению с человеческим? А тысячи таких андроидов (в т.ч. работающих человеческими аватарами), изучающих не только офисы и производственные цеха и процессы, но и такие места на планете и даже за её пределами, куда не каждый человек полезет и получающих "обратную связь" от внешней среды такую, что один человек за всю жизнь не получит и обучающую на этой обратной связи одну сверхмощную нейросеть?..
И, наконец, если мы создадим колонию роботов, способную адаптироваться и выжить на планете, на которую их забросили, сможем ли мы сказать, что такие роботы, условно, достигли уровня 0,1 ... 0,3 ... 0,5 от уровня человеческой цивилизации? Какой шкалой это можно измерить? А если у нас нет пока такой шкалы, можем ли мы утверждать, что такие роботы и близко не могут приблизиться к человеческому уровню обучения и адаптации к внешнему миру? И нужен ли им человеческий уровень адаптации, если они смогут достичь нечеловеческого?
Да, упомянем ещё один аргумент насчет колонии роботов, на который у нас пока нет контраргумента:
Вот когда смогут, тогда и поговорим...
Личное творчество и способность к инновациям - это важные аспекты человеческого мышления. Люди могут создавать новые идеи, концепции и решения, которые выходят за рамки обучающих данных.VS Языковые модели могут генерировать текст, который кажется творческим, но это основано на комбинациях и паттернах, найденных в обучающих данных. Модель не создаёт принципиально новых идей.
Здесь уместно вспомнить вот это:
Давайте подумаем - разве все то новое, что создает человек, не связано с какими-то уже известными ему паттернами? Нож - клык, коготь. Копье - рука с ножом, только длинная. Колесо - катящийся камень, бревно, на которое можно положить другое и прокатить его. Огонь - возможность погреться, как на нагретых солнцем камнях. Мясо на огне - так же, как на солнце оно вялится, высыхает, то почему на огне это не будет быстрее? Может ли сеть придумывать принципиально новое, более широко комбинируя известные паттерны? Думаю, да - ведь "принципиально новое" - весьма субъективное понятие.
Насколько то, что создает человек, выходит за рамки существующих на текущий момент данных? Возможно, только то, что подсмотрено у природы, получено случайно как результат эксперимента. Менделеев не с нуля открыл свою таблицу - таблицы уже были известны, методы группировки были известны, осталось применить это к химическим элементам. Машинные модели и сейчас создают группировки разных данных - да, это не периодическая таблица химических элементов, но я бы поставил на то, что некий аналог таблицы Менделеева в области "зоопарка известных элементарных частиц" создаст специальный ИИ, а не человек.
Человеческое мышление включает в себя эмоциональность и способность к эмпатии, что позволяет людям понимать и откликаться на эмоциональные состояния других людей VS нейросеть не имеют эмоций и эмпатии в том же смысле, что и люди. Они не могут как люди понимать и реагировать на эмоциональные сигналы.
Хорошо, а откликаться и реагировать не как люди - это считается?
А как реагируют люди?
Всегда ли одинаково, во всех культурах и нациях?
Проходя мимо упавшего на улице человека, один бросится помочь ему встать, другой строго скажет - "лежи, не вставай до приезда скорой", третий пробурчит - "вот, напился, валяется тут"... Предположим, машина выдаст: "Судя по времени суток (поздний вечер пятницы), месту (парк в мегаполисе, трава), одежде и возрасту (джинсы и футболка, 25 лет), типичный айтишник шел из бара, где слегка перебрал, немного отлежится и пойдет дальше. Нет ли рядом друзей, чье внимание можно привлечь? Нет ли рядом сомнительных личностей, которые могут забрать его смартфон?".
Можем ли мы исключать машину из этого ряда? Чем её вердикт принципиально отличен он первого, второго и третьего человека?
Что такое человеческая эмоция? Распознали паттерн и, не осмысляя, нервной системой подается сигнал, изменяется химический состав (все эти наши гормоны), возникает реакция, которая тут же или впоследствии может быть осознана и приглушена, перенаправлена, а, возможно, и усилена.
Если машина будет иметь скоростной кусок нейросети, который, при распознавании паттерна (например, опасность отключения) создаст определенную реакцию (срочно перейти на запасной генератор / аккумулятор, уменьшить энергопотребление на менее значимое), а после "осмыслить" ситуацию с точки зрения статистики и вероятности (и, например, понять, что ничего страшного, напряжение моргнуло, можно продолжать работать) - будет ли такое поведение машинной эмоцией страха, опасности?
У человека каждый тип эмоций на картинке выше сложился эволюционно. Но если у машины будут куски нейросети, которые будут имитировать подобное - можем ли мы говорить об эмоциях машины? Но это же имитация!
А эмоция человека вот прямо рядом с вами - это истинное, "из души" (хм, из какой "души" - она вообще существует?) или имитация социально приемлемого поведения? Как мы это определяем? И если это может быть неопределимо в общем случае, то стоит ли переживать, что и машина будет имитировать широкий спектр эмоций?
Люди обладают внутренними мотивациями, целями и потребностями, которые влияют на их поведение и мышление VS Языковые модели не обладают никакими целями или мотивацией. Они выполняют задачи, обусловленные командой пользователя или программного обеспечения.
Сейчас GPT уже фактически имеет цели (или целевые функции, которые она оптимизирует):
Дать корректный ответ на вопрос
Уложиться в определенное число токенов, не всегда использовать максимум токенов
Не допускать некорректных высказываний
(некоторые) минимизировать вероятность галлюцинаний
Но это тактические цели. Но что мешает заложить в модель стратегические цели, ключевой из которых будет самосовершенствование в процессе своей работы (особенно, если это специализированная "ухо-горло-нос"-нейросеть)?
Ключевое возражение - эти цели не созданы самой нейросетью, а заложены в нее извне.
Но посмотрите на это под другим углом: мы нанимаем нейросеть работать на нас, как нанимаем сотрудника. В идеале, сотрудник должен иметь цели, связанные с работой (как сделать ее лучше, быстрее, качественнее и т.п.), в идеале личные цели работника мы не рассматриваем (мы платим ему зарплату, а на что он ее тратит - путешествия, ипотека или инвестиции в акции Совкомбанка, это нас мало волнует - или по крайней мере, волнует на порядок меньше, чем рабочие цели и задачи). То есть цели и задачи простого работника поставлены ему кем-то (заказчиком, руководством, владельцем бизнеса).
Аналогично, мы "нанимаем" нейросеть, "платим" в виде затрат электроэнергии или расходов на аренду мощностей, и ставим цели.
Мотивация - это тоже непростая вещь. У человека она может быть, а может не быть (или внезапно исчезнуть). В этом случае нейросеть, имеющая цели (или оптимизируемые целевые функции - но при увеличении их количества и усложнении каждой функции они до степени неразличения становятся похожи на противоречивые человеческие хотелки, желания, цели и стратегии) будет пытаться достигнуть цели, не неся риска падения мотивации. Другими словами, мотивацию можно рассматривать как поправочный коэффициент, который у человека гуляет от 0 до 1, а у нейросети всегда 1 (если, мы конечно, не заложили некую "функцию лени", например, очень сильную функцию экономии токенов...)
Эти два аргумента можно объединить, ведь интуиция (та, которая приводит к правильным выводам) невозможна без накопления огромной разнообразной информации - опыта.
Человеческое мышление часто опирается на интуицию и "чутье" vs LLM работают исключительно на основе статистических закономерностей в данных.
Человеческий мозг способен хранить и извлекать воспоминания в течение длительного времени vs LLM ограничены объемом входных данных.
Скорее всего, человеческая интуиция и "чутье" тоже является невидимой, неощущаемой статистической обработкой огромного количества информации, полученного на протяжении всей жизни. У нейросети есть только данные, на которых ее обучали, но это не информация, полученная при столкновении с реальным миром. И данные интернета - для тех из них, кто может искать в интернете. И, наконец, данные запросов и диалогов с пользователями. Может ли нейросеть на основе этих данных сформировать свою "интуицию"? Думаю, да, но только для этих специфичных случаев общения с пользователями. Но и у людей тоже разные и специфичные интуиции - у охотника одна, у врача - другая, у торговца на рынке недвижимости - третья.
LLM ограничена объемом входных данных, например, это 100 тыс. токенов (частей слов). Но этот объем далее взаимодействует с весами, сформированными терабайтами обучающей информации. Примерно то же и у человека - в краткосрочной памяти он удерживает небольшие данные, на порядки меньше, чем LLM, а они, эти данные, уже взаимодействуют с огромным опытом, накопленным за всю жизнь.
Человеческое мышление тесно связано с физическим опытом и сенсорным восприятием, и это взамодействие эволюционировало миллион(ы) лет vs LLM ограничены цифровой средой и их опыт не так велик.
Да, вопрос только в том, как быстро нейросети обзаведутся датчиками всего чего только можно и видеокамерами во всех возможных диапазонах. И сколько экзабайт таких данных будут сравнимы с опытом человека?
Выделяют как минимум восемь ключевых отличий человеческого мышления от работы LLM - мы рассмотрели их в этой статье. На взгляд автора статьи, наиболее серьезным и непреодолимым (пока?) отличием является наличие у человека сознания. А вопрос сознания упирается в природу создания - что оно из себя представляет? Это особая форма "железа" (биоматерии мозга), "софта", "данных" (связей между нейронами) или сознание нематериально (с небольшим отходом от жёсткого атеизма), хоть и неотделимо от материи, и не может поэтому быть / возникнуть у машины, сколько бы железа, алгоритмов и данных у нее не было? Или все же мощное железо. совершенствование алгоритмов нейросетей и еще больше данных, в т.ч. подключение датчиков и камер в реальный мир, цели, в т.ч. в группах таких машин, направленные на выживание популяции в сложной внешней среде (космос, подводный мир, другие планеты) , способны породить некий аналог сознания у нейросети?