реклама
Бургер менюБургер меню

Фуад Насиров – ИИ-Революция: Руководство по выживанию (страница 3)

18

Но Искусственному Интеллекту не нужна Феррари. Обучение нейросети требует выполнения миллиардов крошечных, примитивных математических операций одновременно. Для этого нужен GPU (Графический процессор). GPU – это не Феррари. Это колонна из 5000 автобусов. Каждый автобус едет медленно, но вместе они перевозят 200 000 человек одновременно.

NVIDIA изначально создавала эти чипы для видеоигр (чтобы рисовать миллионы пикселей на экране одновременно). Оказалось, что «рисование пикселей» и «мышление нейросети» математически почти идентичны. Когда началась революция ИИ, у NVIDIA уже был готовый флот автобусов.

Сегодня чип NVIDIA H100 – это самый желанный товар в Кремниевой долине. Одна такая «видеокарта» стоит как новый автомобиль Tesla ($30,000 – $40,000). Техногиганты покупают их десятками тысяч. Марк Цукерберг записывает видео, хвастаясь своими запасами H100, как раньше короли хвастались золотыми слитками.

Если чипы – это двигатель, то данные – это бензин. Без данных самая мощная нейросеть – просто груда металлолома.

Чтобы обучить GPT, OpenAI пришлось «прочитать» модели практически весь публичный интернет: Википедию, Редит, миллионы книг, научных статей и миллиарды строк кода.

Но здесь мы сталкиваемся с двумя проблемами.

Проблема А: Качество Интернет – это большая помойка. На каждый научный факт приходится десять комментариев троллей и пять спам-сайтов. Если вы кормите ИИ мусором, на выходе вы получите мусор (принцип Garbage In, Garbage Out). Сейчас компании нанимают тысячи людей (часто в Африке или Азии), чтобы они вручную размечали данные: «Это – кошка, это – собака, а это – расистский комментарий, который машине читать нельзя».

Проблема Б: Данные заканчиваются Это звучит безумно, но к 2026 году мы можем исчерпать запасы качественного человеческого текста. ИИ читает быстрее, чем мы пишем. Мы уже скормили ему все книги, написанные за 5000 лет. Что дальше? Ответ: Синтетические данные. Мы начинаем использовать один ИИ, чтобы писать учебники для другого ИИ. Это рискованный путь (представьте ксерокопию ксерокопии, которая со временем теряет четкость), но, похоже, неизбежный.

Третий компонент – самый игнорируемый. ИИ невероятно прожорлив.

Когда вы задаете вопрос ChatGPT, где-то в дата-центре в Айове или Техасе включается сервер. Этот запрос потребляет в 10 раз больше электричества, чем обычный поиск в Google. Создание одной картинки в Midjourney тратит столько же энергии, сколько полная зарядка вашего смартфона.

Дата-центры: Соборы XXI века Эти здания – новые храмы нашей цивилизации. Это гигантские бетонные коробки без окон, размером с футбольные поля, забитые стойками серверов. Внутри стоит оглушительный гул вентиляторов. Они выделяют столько тепла, что их нужно постоянно охлаждать водой. Крупные дата-центры потребляют миллионы литров воды в день, что уже вызывает конфликты в засушливых регионах.

Техногиганты (Microsoft, Amazon, Google) сейчас лихорадочно ищут источники энергии. Они больше не могут полагаться на общую сеть.

Microsoft заключает сделки на восстановление атомных электростанций.

Сэм Альтман (CEO OpenAI) инвестирует в термоядерный синтез.

Мы движемся к будущему, где ИИ будет работать на ядерной тяге.

ЧАСТЬ II: КАК ЭТО РАБОТАЕТ

ГЛАВА 4: МОЗГ В КОРОБКЕ

Как собрать мозг из чистой математики?

Это был центральный вопрос искусственного интеллекта на протяжении десятилетий. Ученые пытались создать разум с помощью логики. Они относились к разуму как к гигантской картотеке, набитой жесткими правилами и фактами. И они потерпели неудачу. Тогда они решили перестать быть логиками и начать думать как биологи. Они посмотрели на единственный рабочий пример интеллекта во Вселенной – человеческий мозг.

Ваш мозг – это желевидная, запутанная биологическая машина. Он состоит примерно из 86 миллиардов нейронов. Эти нейроны соединены друг с другом триллионами синапсов.

Нейрон: Крошечная клетка, которая накапливает заряд.

Синапс: Провод, соединяющий их.

Когда вы видите лицо, через эту паутину проносится специфический электрический разряд. Один нейрон вспыхивает, запуская соседа, тот – следующего. Это похоже на «волну», которую пускают болельщики на стадионе. Этот уникальный узор электричества и есть память о лице.

Искусственная нейронная сеть (ANN) – это упрощенная цифровая копия этой структуры. В ней нет клеток – только математические уравнения. В ней нет химии – только цифры. Но принцип идентичен: Интеллект – это не «вещь». Интеллект – это связь.

Чтобы понять, как ИИ «думает», представьте простую нейросеть, созданную для одной задачи: распознавать рукописные цифры. (Это классическое упражнение для новичков, своего рода «Hello World» в мире ИИ).

Сеть устроена слоями, как бутерброд.

Слой 1: Входной слой (Сетчатка) Сюда поступают данные. Представьте цифровую картинку с цифрой «8». Это сетка пикселей размером 28 на 28 (всего 784 пикселя). Каждый пиксель имеет яркость (0 – белый, 1 – черный). Во входном слое у нас 784 нейрона. Каждый нейрон держит одно число – яркость одного пикселя.

Слои 2 и 3: Скрытые слои (Мозг) Это и есть «черный ящик». В современных моделях (Deep Learning) таких слоев могут быть десятки и сотни. Эти нейроны не связаны с внешним миром. Они общаются только друг с другом. Их работа – искать признаки.

Скрытый слой 1 может загораться, если видит прямую линию.

Скрытый слой 2 реагирует на изгибы.

Скрытый слой 3 активируется, если видит замкнутую петлю (как верхняя часть восьмерки).

Слой 4: Выходной слой (Рот) Это ответ. В нашем случае здесь всего 10 нейронов, помеченных цифрами от 0 до 9. Когда обработка завершена, мы хотим, чтобы нейрон с меткой «8» горел ярко (100%), а остальные оставались темными (0%).

Вот секрет, который сбивает с толку новичков: Сами нейроны – скучные. Нейрон – это просто контейнер для числа. Это ведро. Интеллект живет не в ведрах, а в трубах, которые их соединяют. Эти соединения называются Весами (Weights).

Представьте себе гигантский диджейский пульт с миллионом ручек громкости.

Провод: Соединяет Нейрон А с Нейроном Б.

Вес (Ручка громкости): Контролирует силу этой связи.

Если вес большой (например, 0.9), то когда Нейрон А загорается, он «кричит» Нейрону Б, чтобы тот тоже загорелся. Если вес маленький (например, 0.01), Нейрон А шепчет, и Нейрон Б его почти не слышит. Если вес отрицательный (например, -0.8), Нейрон А приказывает Нейрону Б замолчать (торможение).

Великая настройка Когда ИИ только «рождается», все эти миллионы весов выставлены случайно. Пульт настроен хаотично. Если показать ему картинку «8», сигнал пройдет через случайные связи, и на выходе нейросеть может уверенно заявить: «Это тостер!» (или цифра «5»). Как же она умнеет? Ей нужно покрутить ручки. Ей нужна настройка.

Как настроить пульт со 100 миллиардами ручек? Вручную это невозможно. Нужен алгоритм. Этот процесс называется Обучением (Training).

Чтобы понять математику обучения, используем аналогию.

Аналогия: Турист в темноте Представьте туриста, которого вертолет сбросил где-то в огромной горной цепи глухой ночью.

Турист: Это наша модель ИИ.

Цель: Спуститься в самую низкую точку долины (к уровню моря).

Высота: Это «Уровень ошибки» (Loss).

Высоко в горах = Огромная ошибка (ИИ глупый).

На дне долины = Нулевая ошибка (ИИ идеален).

Проблема: Вокруг кромешная тьма. Турист не видит долину. Он чувствует только наклон земли прямо под ногами.

Конец ознакомительного фрагмента.

Текст предоставлен ООО «Литрес».

Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.

Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.