Александр Зарубин – Просто про нейросети (страница 4)
Они были разработаны для решения конкретных задач классификации, а не для общего обучения на любых данных, чтоб не спутать это нам! Но как оказалось, перцептроны имели существенные ограничения для этого.
Еще проще: надо представить один нейрон из нашей головы! Он отвечает за одну задачу. Например, видеть и понимать цифру один! То есть, самую настоящую единицу! И только ее! Теперь представим искусственный нейрон, который понимает только одну функцию, – видеть только цифру один!
Этот искусственный нейрон принимает несколько входных разных чисел и решает, к какой категории эта цифра относится – к цифре один или не к цифре один.
Еще проще: у нас есть один человек, который говорит, что перед нами яблоко или апельсин. Больше других задач он не имеет никогда. Откуда он знает, что перед ним яблоко или апельсин? Методом долгих проб и ошибок! Его тренируют и обучают этому! Ему дают информацию, например, как в руку предмет, и он его анализирует математическими свойствами (весами) и решает, к какой категории будет относиться именно этот предмет. Например, светофор никогда не станет яблоком. Или апельсином. И когда ему дадут в руку целый светофор, он скажет: «Это не яблоко и точно не апельсин!»
Яблоко или апельсин можно заменить другими значениями. Например, представьте, что это будет цифра один и цифра два. Женщина или мужчина. Небо или земля. Вода или бетон. Чему обучат этот искуственный нейрон, то уметь он и сможет, грубо говоря!
Держите цифры этих эпохальных моментов:
– 1943 год – модель нейрона Маккаллока-Питтса;
– 1950-е годы – первые исследования (!пер-цеп-тронов!), предложенных Фрэнком Розенблаттом. Перцептрон был первой моделью искусственного нейрона, способной учиться на основе примеров.
Перцептроны и кризис зарождавшегося искусственного интеллекта
В 1960-х годах произошел всплеск интереса к искусственному интеллекту благодаря работам Марвина Минского и других исследователей. Однако вскоре наступил период скептицизма и разочарования, известный как первый «зимний период» искусственного интеллекта. Одной из причин стал знаменитый доклад Минского «Perceptrons», где он доказал ограниченность однослойных перцептронов.
Но знаете, как бывает: сначала все на подъеме, а потом бац – и разочарование. В 60-х годах Минский написал книжку «Перцептроны» и сказал:
«Ребята, да ваши нейросетки – это фигня, они даже простое XOR решить не могут!»
И все!
Началось похолодание в мире искусственного интеллекта. Финансирования нет, энтузиазма тоже. Частично именно это не дало развитию этой технологии в те времена. Либо все в эти года просто были помешаны на финансировании космической идеи.
Это что получается? Разработки искуственного интеллекта еще в 1960-х годах начались?
Как мы с вами видим – да! А там и фильмы про Терминатора начали появляться по мотивам книжек научной фантастики того времени!
– 1969 год – доклад Марвина Минского «Perceptrons». Этот труд показал ограничения однослойных перцептронов и привел к снижению финансирования исследований в области ИИ;
– 1970—1980-е годы – первый «зимний период» искусственного интеллекта, когда интерес к нейросетям снизился.
Возрождение интереса к нейросетям
В конце 1980-х годов произошел новый виток интереса к нейросетям благодаря появлению многослойных перцептронов и методов обратного распространения ошибки (backpropagation). Эти методы позволили создавать более сложные и мощные модели.
Как говорится, без зимы не бывает весны. Все снова пошло вверх! Люди начали строить многослойные сети, и оказалось, что они могут делать крутые вещи.
– 1986 год – книга Дэвида Румельхарта, Джеффри Хинтона и Рональда Уильямса «Learning Representations by Back-Propagating Errors». Это было ключевое событие, которое вернуло интерес к нейросетям;
– 1990-е годы – начало активного применения нейросетей в распознавании образов, обработке сигналов и других приложениях.
Что?
В 90-е уже были модели распознавания образов? Честно говоря, изучая это, самому не верится. Ведь автор этой книги родился в 90-х годах. Активное использование нейросетей в коммерческих и промышленных масштабах началось чуть позже, ближе к концу 1990-х и началу 2000-х годов.
Современный бум глубокого обучения
И вот в начале XXI века появляется тематика глубокого обучения (deep learning). Глубокие нейронные сети показали выдающиеся результаты в таких задачах, как компьютерное зрение, обработка естественного языка и автоматическое управление в том числе.
– 2006 год – статья Джеффри Хинтона «A Fast Learning Algorithm for Deep Belief Nets». Это стало началом эры глубокого обучения;
– 2012 год – победа глубокой сверточной нейронной сети AlexNet в конкурсе ImageNet, что продемонстрировало возможности глубоких нейросетей в компьютерном зрении;
– 2010-е годы – активное развитие архитектуры рекуррентных нейронных сетей (RNN), трансформеров и других моделей, применяемых в обработке текста и речи.
Нейросети буквально стали мощными по сравнению с тем, что имелось в 90-х. Глубокое обучение не является абсолютно новой областью для 2010 года, но представляет собой дальнейшее развитие всех идей, заложенных в предыдущих десятилетиях. Тем не менее, успехи в области глубокого обучения в XXI веке действительно открыли новые горизонты для применения будущего искусственного интеллекта.
Современные достижения и тренды
Сегодня нейросети используются практически везде: от автопилотов в автомобилях до систем рекомендаций в интернете. Некоторые из последних достижений включают:
– генеративные модели, такие как GANs (Generative Adversarial Networks), способные создавать реалистичные изображения и видео;
– большие языковые модели, такие как GPT-4 и Grok-4, демонстрирующие впечатляющие способности в понимании и генерации текста;
– роботы и автономные системы, использующие нейросети для навигации и принятия решений.
Нейросети теперь повсюду: в смартфонах, автомобилях, умных домах.
Их история началась с простеньких моделей, постепенно превратившихся в мощные системы, способные справляться с самыми разными заданиями. Каждое нововведение приносило свежие идеи и технические улучшения, раздвигавшие рамки возможностей. Сейчас нейросети активно развиваются дальше, открывая перед нами все больше новых перспектив в науке и технике.
А что ждет впереди?
Мы еще даже близко не подошли к пределу их потенциала – важно об этом напоминать себе буквально каждый день. Буквально сейчас, на лето 2025 года, финансируются и строятся объекты, поддерживающие развитие и потенциал самого настоящего будущего искусственного интеллекта.
Как они вообще работают эти ваши нейросети?
Представь, что у тебя есть большой пазл, состоящий из множества маленьких кусочков. Ты собираешь этот пазл, подбирая каждый кусочек к другому, пока не получится целая картинка. Так вот, нейросеть работает примерно так же, только вместо кусочков пазла у нее есть маленькие кирпичики, называемые «нейронами». Эти нейроны соединены между собой, как кусочки пазла, и вместе они помогают решить сложную задачу.
Например, когда ты показываешь нейросети картинку с котиком, она пытается подобрать нужные нейроны, чтобы сказать: «Да, это кот!» Для этого ей нужно пройти через огромное количество уровней – прям как в компьютерных играх! Только делает она это за секунду! Для нейросети секунда – это целое тысячелетие! Эти уровни нейросеть проходит словно лестницу, где на каждом уровне она сравнивает разные части картинки с тем, что уже знает. Сначала она смотрит на общие формы и цвета, потом на более мелкие детали, и в итоге приходит к выводу, что это действительно наш милый котик на картинке.
Нейросети состоят из множества взаимосвязанных элементов (нейронов), которые совместно обрабатывают информацию и формируют выводы. Аналогия с пазлом подчеркивает процесс постепенного формирования результата.
В нейросетях происходит многоуровневая обработка данных. Например, в сверточных нейронных сетях (CNN) сначала выделяются базовые признаки (края, контуры), затем более сложные (формы, объекты), и в конечном итоге сеть делает вывод о содержании изображения. Помните, мы говорили о весах про апельсины и яблоки? Очень похоже, да?
Вот еще аналогия:
Нейросети – это как если бы у вас был гигантский железнодорожный вокзал, где вместо поездов маленькие человечки бегают туда-сюда с бумажками. И каждый раз, когда они добегают до стрелки, они смотрят на свою бумажку и думают: «Ага, значит, мне сюда!» И так они бегают, пока не соберутся все вместе и не скажут: «Ха-ха, мы решили наконец – это тот самый котик!»
Только представь: тысячи таких человечков, и каждый несет свою маленькую подсказку. Один видит ушки, другой – хвостик, третий – лапки. И в итоге они все вместе кричат: «Это кот! Мы увидели все вместе общую картинку и сразу все поняли!» А если ты им покажешь собаку, они побегут по другим путям и в конце концов скажут: «Нет, это собака – тут уши совсем другие, не как у кота, а как у собаки!»
В процессе обучения нейросеть накапливает информацию от отдельных нейронов и объединяет ее для получения финального вывода. Этот процесс называется «прямое распространение» (forward propagation). И давайте с вами сразу расставим точки в понимании: нейросеть не «играет», а систематически обрабатывает данные согласно заранее заданным правилам и настройкам.