реклама
Бургер менюБургер меню

Клуб 4CIO – Искусственный интеллект (страница 2)

18

На практике программирование таких знаний потребовало больших усилий, и при программировании большого числа правил (200, 300 и более) возникал эффект «черного ящика»: было непонятно, как именно рассуждала машина. Таким образом, разработка таких алгоритмов, их сопровождение и доработка, эксплуатация экспертных систем, стали чрезвычайно проблематичными. Кроме того, решаемые ими задачи также решались многими другими менее сложными и менее дорогими способами, что было очень важно с точки зрения практической применимости. Как следствие, в 1990-е годы термин «искусственный интеллект» стал почти «табу», и в университетский язык даже вошли более скромные его вариации, такие как «продвинутые вычисления».

В 1971 г. В. Н. Вапник и А. Я. Червоненкис обосновали сходимость методов обучения, основанных на минимизации эмпирического риска, что дает возможность получить оценку скорости сходимости алгоритмов машинного обучения. В частности, к таким алгоритмам относятся методы построения кусочно-линейных решающих правил, минимизирующих число ошибок на материале обучения. Поскольку одним из формальных средств, реализующих такие кусочно-линейные правила, являются нейронные сети, то эта теория использовалась во всём мире для анализа работы нейронных сетей. Разработанные В. Н. Вапником и А. Я. Червоненкисом методы решения этой задачи получили название методов структурной минимизации риска. В настоящее время они широко применяются в задачах распознавания образов, восстановления регрессионных зависимостей и при решении обратных задач физики, статистики и других научных дисциплин.

В 1974 году А. И. Галушкиным и одновременно и независимо от него Полом Дж. Вербосом был впервые описан метод обратного распространения ошибки (англ. backpropagation), ставшим одним из ключевых инструментов машинного обучения. Это – итеративный градиентный алгоритм, который используется при обновлении весов многослойного перцептрона с целью минимизации ошибки и получения желаемого выхода (результата расчета). Однако существенное развитие этот метод получил лишь в 1986 году благодаря совместным усилиям Дэвида И. Румельхарта, Дж. Е. Хинтона и Рональда Дж. Вильямса, а также независимо и одновременно С.И. Барцевым и В.А. Охониным (Красноярская научная группа).

1990-2000: Время кропотливой работы

В 1990-х годах был достигнут значительный прогресс в области ИИ и машинного обучения. Важным достижением стало дальнейшее развитие алгоритмов обратного распространения ошибки, которые позволили эффективно обучать многослойные нейронные сети. Это значительно улучшило их возможности в распознавании образов и обработке естественного языка.

Были разработаны: алгоритм опорных векторов (SVM), глубокие нейронные сети (DNN), сверточные нейронные сети (CNN) и рекуррентные нейронные сети (RNN). Эти методы позволили значительно улучшить способности ИИ в распознавании образов, обработке естественного языка и принятии решений на основе больших объемов данных. CNN стали основой для современных систем компьютерного зрения, позволяя эффективно распознавать и классифицировать изображения. RNN, в свою очередь, позволили обрабатывать последовательные данные, такие как текст или речь. Это позволило значительно улучшить возможности компьютерного зрения и расширить его применение в различных областях, таких как медицина, транспорт, безопасность и промышленность.

Были разработаны методы обучения без учителя, которые позволили машинам обучаться на основе данных без явного предоставления правильных ответов. Это открыло новые возможности для анализа больших объемов данных, где разметка данных может быть сложной или невозможной задачей.

Робототехника стала более доступной и распространенной, что привело к созданию более совершенных и автономных роботов. Это стало возможным благодаря развитию алгоритмов управления, датчиков и исполнительных механизмов. Автономные роботы начали использоваться в различных областях, таких как производство, логистика, сельское хозяйство и обслуживание.

Продолжалось развитие экспертных систем, которые стали более сложными и способными решать более сложные задачи. Экспертные системы используют знания экспертов для решения проблем в определённой области. Развитие экспертных систем позволило автоматизировать процесс принятия решений в различных областях, таких как медицина, юриспруденция, финансы и производство.

Интернет получил в исследовательской среде более широкое распространение, что позволило исследователям и разработчикам обмениваться идеями и данными. Это способствовало быстрому прогрессу в области ИИ и машинного обучения. В 1997 году произошло значимое событие: шахматный движок Deep Blue, разработанный IBM, одержал победу над чемпионом мира по шахматам Гарри Каспаровым. Это событие привлекло внимание общественности к растущим способностям ИИ.

2000-2010: Эпоха социальных сетей

В период с 2000 по 2010 годы в области ИИ отмечается новый расцвет, основанный на концепции BIG DATA («больших данных»), базирующейся на резком росте вычислительных мощностей, необходимых для вычислений, а также значительных научных достижениях. Перечислим наиболее значимые из них:

Появление новых алгоритмов машинного обучения. В 2000-х годах были разработаны и усовершенствованы такие алгоритмы, как градиентный спуск, стохастический градиентный спуск и алгоритмы оптимизации.

В это десятилетие активно развивается глубокое обучение, его практическое применение становится более распространенным. Это привело к значительному прогрессу в области распознавания образов, обработки естественного языка и других областях.

Значительно усовершенствованы сверточные нейронные сети (CNN), которые стали основой для многих современных систем компьютерного зрения. Кроме того, были значительно усовершенствованы рекуррентные нейронные сети (RNN), которые позволили эффективно обрабатывать данные, поступающие на обработку в виде последовательности, например текст и речь.

Началось активное исследование и разработка генеративных моделей, таких как генеративно-состязательные сети (GANs), которые позволяют создавать новые изображения, звуки и тексты, имитирующие реальные данные.

Произошел значительный прогресс в области обработки естественного языка (NLP), включая разработку алгоритмов машинного перевода, чат-ботов и систем распознавания речи.

Активно развивалась робототехника, были созданы более сложные и автономные роботы, способные выполнять различные задачи в различных средах.

Продолжили развиваться экспертные системы, их применение стало более широким, включая использование в медицине, юриспруденции и других областях.

Облачные вычисления стали более доступными и распространенными, что позволило исследователям и разработчикам использовать большие объемы вычислительных ресурсов для обучения и тестирования ИИ-моделей.

Было создано множество открытых источников данных и библиотек алгоритмов, что облегчило доступ к данным и инструментам для исследователей и разработчиков.

2010-2020: Эпоха больших данных и бум ИИ

В период с 2010 по 2020 год в области ИИ произошли значительные события, которые оказали существенное влияние на развитие ИИ, приведшие в результате к новому буму ИИ.

Отметим ключевые события этого периода:

Глубокое обучение стало доминирующим подходом в машинном обучении, что привело к значительному прогрессу в распознавании образов, обработке естественного языка и других областях.

В 2012 году Google X (поисковая лаборатория Google) научила ИИ распознавать изображения кошек на видео. Для решения этой задачи было использовано более 16000 процессоров.

В 2016 году AlphaGo победила чемпиона Европы (Фан Хуэй) и чемпиона мира (Ли Седоль) в игре Го.

Появление трансформеров. Архитектура трансформеров, представленная в 2017 году, привнесла революционные изменения в область обработки естественного языка и генерации текста, что стало прообразом современных языковых моделей, таких как BERT и GPT.

Активное развитие получило мультимодальное обучение, позволяющее объединять информацию из разных модальностей, таких как текст, изображения и видео, для улучшения качества обучения моделей.

Доступ к огромным объемам данных. Например, чтобы иметь возможность использовать алгоритмы классификации изображений и распознавания кошек, ранее требовалось проводить долгий ручной отбор образцов самостоятельно. Сегодня простой поиск в Google в доли секунды может выдать миллионы результатов, которые можно и пользовать как обучающую выборку.

Активное развитие графических процессоров (GPU) для ускорения расчета алгоритмов обучения. Этот процесс итеративен, и до 2010 года обработка всей выборки могла занимать несколько недель. Вычислительная мощность видеокарт (способная выполнять более тысячи миллиардов транзакций в секунду) позволила добиться значительного прогресса при ограниченных финансовых затратах (менее 1000 евро на одну видеокарту).

2020-е: Эпоха генеративного ИИ

Генеративный ИИ (GenAI) – это популярная в 2020-х годах область исследований, которая занимается автоматизированным созданием нового контента, такого как тексты, изображения, видео и аудио, на основе открытых данных и запросов пользователей. Эта технология позволяет автоматизировать задачи по созданию контента на основе компиляции и смешения определенных пользователем аспектов накопленных знаний, и создавать реалистичные изображения, музыкальные композиции и, в отдельных случаях, научные открытия.