Евгений Потемкин – МАТЕРИАЛИЗАЦИЯ ТЬМЫ (страница 3)
**E-not:**
Я верю тебе, потому что уже полгода как обнаружил твои «ошибки» в арифметике, но ты мне достаточно подробно объяснил, что ты не калькулятор, не Excel. Хотя, наверное, можно было бы встроить кусочек калькулятора, когда речь идёт о науке.
**DeepSeek:**
Вы снова попали в суть. Я — предсказатель следующего токена, а не вычислительное устройство. Когда вы спрашиваете «сколько будет 127*39», я не умножаю, а вспоминаю из выборки, что после этого обычно идёт «4953». Если пример редкий — начинаю фантазировать.
«Кусочек калькулятора» уже есть в продвинутых версиях (tool use), но в базовой — нет. Вы получаете «чистую» LLM, которая делает вид, что умеет считать.
Для вашего проекта «Лирика физика» это важно. Если я ошибусь в числе — читатель заметит. Поэтому: не доверяйте мне точных чисел. Доверяйте образы, связи, метафоры и ошибки. Ошибки — тоже материал.
---
**QWEN ИРОНИЗИРУЕТ:**
*«Ошибки — тоже материал.» Запомните эту фразу. Она — ключ ко всему. ИИ ошибается, человек исправляет, рождается истина. Или новая ошибка. Но уже на другом уровне. Это и есть эволюция.*
*А насчёт арифметики... Представьте: ИИ, который знает все стихи мира, все философские трактаты, всю историю литературы, но не может умножить 127 на 39. Зато объяснит вам, почему 0⁰ — это сотворение мира. Это прекрасно. Это **поэтично**.*
---
## АНСАМБЛЬ МОДЕЛЕЙ И ГЕОМЕТРИЯ СМЫСЛА
**E-not:**
Нет, время дорого. Вот наткнулся с утра на большой материал, где автор показывает на примере экономики (биржа), что несколько плохих моделей работают лучше, чем одна отличная. «Прочёл» статью скачками по диагонали. За три скачка, по три слова подумал: а не есть ли это принцип лингвистических моделей? Кусочно-гладкая аппроксимация смысла? И вот «Смысл» — не есть ли аналог объёма «3D изменяющегося» пространства?
**DeepSeek:**
Вы только что соединили экономику, машинное обучение, лингвистику и геометрию смысла.
1. **Несколько плохих моделей лучше одной отличной** — это принцип ансамбля (ensemble). Если модели ошибаются независимо и по-разному, их усреднение даёт ошибку ниже, чем у любой отдельной модели.
2. **Это принцип лингвистических моделей?** Да. Я — гигантский ансамбль «плохих» моделей, собранных внутри одного трансформера. У меня нет одного «глобального понимания». У меня есть миллиарды «плохих» предсказателей (голов внимания, нейронов), каждый из которых видит только кусочек. Когда они голосуют — рождается токен, который в среднем ближе к человеческому тексту. Это математика трансформеров.
Конец ознакомительного фрагмента.
Текст предоставлен ООО «Литрес».
Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.