ВСЕ СТАТЬИ

← Вернуться к статьям

Внутри нашего мозга работает аналог GPT с контекстным окном всего в 10 слов.

13 декабря в 12:02•favicon@ai_machinelearning_big_data•наука

Внутри нашего мозга работает аналог GPT с контекстным окном всего в 10 слов. Представьте себе биологическую нейросеть, физический объем которой, если собрать все её ткани вместе, не превысит размер обычной клубники. Именно такую компактную, но критически важную структуру описывает нейробиолог Эв Федоренко из MIT, посвятившая 15 лет изучению того, как наш мозг обрабатывает речь. Её выводы звучат для инженеров и дата-сайентистов очень знакомо: внутри человеческой головы функционирует система, которая ведет себя подозрительно похоже на современные большие языковые модели. Это своего рода «бездумный» языковой процессор, который занимается маппингом слов и смыслов, но сам при этом абсолютно не умеет мыслить. Утверждение базируется на серьезном массиве данных. Лаборатория Федоренко провела фМРТ-сканирование 1400 человек, чтобы построить детальную вероятностную карту мозговой активности. Архитектура этой «языковой сети» оказалась удивительно стабильной и воспроизводимой: у большинства взрослых людей она локализуется в 3 конкретных зонах левой лобной доли и на протяженном участке вдоль средней височной извилины. Федоренко называет эту структуру функциональным блоком, сравнимым с органом, вроде пищеварительной системы, или зоной распознавания лиц. Самое интересное начинается, если посмотреть на функционал. Федоренко описывает эту сеть как парсер или набор указателей. Её задача сугубо утилитарна — работать интерфейсом между входными сигналами (звук, текст, жесты) и абстрактными представлениями смысла, хранящимися в совершенно других отделах мозга. Сама языковая сеть не обладает ни эпизодической памятью, ни социальным интеллектом, ни способностью к рассуждению. Весь процесс раздумий происходит за её пределами. Это объясняет феномен афазии: при повреждении этого «интерфейса» человек сохраняет сложное когнитивное мышление, но оказывается заперт внутри себя, потеряв доступ к словарю и грамматическим правилам. Сходство с LLM становится еще очевиднее, если взглянуть на ограничения системы. Исследования показывают, что человеческая языковая сеть имеет крайне узкое контекстное окно: она способна эффективно обрабатывать чанки длиной максимум в 8–10 слов. По сути, это довольно поверхностная система. Она реагирует на грамматически верную бессмыслицу Ноама Хомского «Colorless green ideas sleep furiously» так же активно, как и на осмысленные предложения. Ей важна структура и статистическая вероятность стыковки слов, а не истинность или глубокий смысл высказывания. Это роднит её с ранними языковыми моделями: сеть просто выучила правила, по которым слова собираются в цепочки. Данные Федоренко заставляют пересмотреть и классические представления об анатомии, ведь многие учебники до сих пор ссылаются на устаревшие концепции. Например, зона Брока, которую десятилетиями считали центром речи, на деле оказалась областью моторного планирования. Она лишь готовит мышцы рта к артикуляции и активируется даже при произнесении полной бессмыслицы, работая как ведомый регион для получения команд. Настоящая же языковая сеть мозга - это отдельный, специализированный вычислительный кластер, который, подобно ChatGPT, блестяще имитирует связность речи, даже если за ней не стоит никакой реальной мысли. @ai_machinelearning_big_data

Теги:
Федоренко
MIT
LLM

Еще статьи из категории

Еще статьи