Клуб 4CIO – Искусственный интеллект (страница 3)
Развитие генеративного ИИ началось в конце 1990-х годов, активизировалось в 2010-х годах, но 2020-е годы стали настоящим прорывом. Это произошло в связи с развитием генеративно-состязательных сетей (GAN – Generative Adversarial Network) и появлением больших языковых моделей, таких как ChatGPT, в 2023 году. Эти модели позволяют генерировать тексты такого высокого качества, что часто его довольно сложно отличить от текста, написанного журналистом.
Одним из ключевых людей, стоящих за развитием генеративного ИИ, был Ян Гудфеллоу, канадский исследователь, известный своими работами в области глубокого обучения и генеративных моделей. Ян Гудфеллоу работал в различных организациях и компаниях, включая Google Brain, OpenAI и Microsoft Research. Он внёс значительный вклад в развитие генеративного ИИ, особенно в области генеративных состязательных сетей (GANs) и трансформеров.
Основные свойства генеративного ИИ:
Генерация. Это способность создавать новые данные, такие как изображения, текст или аудио, на основе смешения отдельных аспектов в существующих данных.
Анализ. Это способность анализировать и интерпретировать большие объёмы данных, находить закономерности и делать выводы.
Обучение. Это способность обучаться на основе малого количества примеров, улучшать свои результаты и адаптироваться к новым условиям.
Автоматизация. Это способность автоматизировать рутинные задачи, такие как обработка данных, суммаризация текстов и др.
Удобство получения информации. Это способность отвечать на текстовые вопросы пользователя по всему корпусу накопленных в процессе обучения ИИ знаний.
Основные сценарии использования генеративного ИИ на текущий момент:
Создание контента. Это генерация изображений, видео, музыки и текстов для маркетинга, развлечений и искусства.
Распознавание образов. Это анализ и классификация изображений, видео и аудио для медицинской диагностики, безопасности и распознавания лиц.
Машинный перевод. Это перевод текстов на разные языки с высокой точностью и качеством перевода.
Персонализация. Это адаптация продуктов и услуг под индивидуальные потребности и предпочтения пользователей – конкретных физических лиц.
Негативной стороной достигнутого прогресса в области создания реалистичного, но при этом искусственно сгенерированного контента стали так называемые «deep fake». Слово Deepfake – комбинация термина Deep learning (глубокое обучение) и слова Fake (фейк). Как следует из комбинации, дипфейки создаются с использованием технологии ИИ на основе методов машинного обучения. Выделяют три основных категории дипфейков: видео и изображения, голос, тексты. Обычный неподготовленный человек с высокой степенью вероятности не сможет отличить их от оригиналов. Это явилось серьезным вызовом для новой дисциплины – киберкриминалистики.
Хотя, по сути, дипфейки являются «фальшивкой» (часто в литературе используется более мягкий термин – синтетические медиа или синтетический контент), последствия от их применения и их влияние на общество, граждан и бизнес могут быть вполне реальными. Необходимо понимать, что далеко не все авторы дипфейков используют их со злым умыслом. Но в случае такого умысла они должны сталкиваться с неотвратимыми юридическими последствиями.
Эпоха генеративного ИИ открывает широкие возможности для творчества, исследований, образования и бизнеса. Однако, эта технология также вызывает опасения общественности относительно этических аспектов и возможного негативного воздействия не только на рынок труда, но и на вектор развития человечества.
Нейронные сети
Нейронные сети являются базовой технологией, лежащей в основе ИИ. Их математические основы были исследованы, определены, и описаны в многочисленных статьях и книгах, начиная с конца 1950х годов. Например, еще в 1957 году Фрэнк Розенблатт предложил концепцию перцептрона – одной из первых моделей искусственной нейронной сети. Эта модель позволяет создавать ассоциативные связи между входными данными (импульсами на входе) и необходимыми выходными данными (реакциями сети на выходе). Современная терминология определяет перцептроны как искусственные нейронные сети с одним скрытым слоем, пороговой передаточной функцией и прямым распространением сигнала.
Искусственная нейронная сеть (ИНС) – это математическая модель, состоящая из множества простых «процессоров», называемых нейронами; нейроны связаны между собой и работают вместе для выполнения сложных задач. Каждый нейрон может принимать входные данные, обрабатывать их и передавать результаты следующему нейрону. ИНС обучаются на обучающих примерах таким образом, чтобы научиться распознавать шаблоны (типовые паттерны) и затем, при обработке данных после обучения, делать на основе паттернов, выявленных в полученных данных, прогнозы. Сложность решаемых задач приводит к тому, что нейроны необходимо объединять в слои, чтобы улучшить способность сети к обучению и повысить качество прогнозов. Каждый слой выполняет свою функцию и передает результаты на следующий слой. Первый слой получает входные данные, этот слой называется «входным слоем». Он преобразует входные данные во внутренний формат сети. Затем идет один или более скрытых слоев (в глубокой нейросети таких слоев больше двух), где происходит основная обработка входных данных. Нейроны производят математические операции над входными данными и передают результаты дальше. Последний слой называется «выходным слоем», его задача – выдача результата работы сети. Объединение нейронов в слои позволяет всей сети обрабатывать входные данные поэтапно, что улучшает точность и скорость обработки данных. Важно понимать, что слои позволяют создавать сложные модели, способные решать сложные задачи анализа больших объемов данных и выявления скрытых закономерностей.
Важнейшие понятия ИНС:
Нейроны – основные вычислительные единицы, которые принимают входные данные, обрабатывают их и передают результаты дальше по сети. Каждый нейрон выполняет простую математическую операцию: он умножает входные значения на определённые веса, затем суммирует результаты и передаёт их через функцию активации, которая определяет, будет ли нейрон активирован и каким будет его выходной сигнал.
Синапсы – связи между нейронами, которые определяют силу взаимодействия между ними. Синапсы могут быть возбуждающими или тормозящими, что влияет на то, как нейроны взаимодействуют друг с другом.
Веса – коэффициенты, присвоенные синапсам, которые влияют на передачу сигнала между нейронами. Веса могут быть положительными или отрицательными, и они определяют, насколько сильно один нейрон влияет на другой.
Смещения – параметры, добавляемые к сумме взвешенных входов нейрона перед применением функции активации. Это позволяет нейронам учитывать входные данные, даже если все веса равны нулю.
Слои – нейроны группируются в слои, каждый из которых выполняет определенную функцию. Обычно выделяют входной слой, скрытые слои и выходной слой.
Алгоритм обучения – алгоритм, который регулирует веса и смещения нейронов для минимизации функции потерь. Основные алгоритмы – градиентный спуск, Stochastic Gradient Descent (SGD), Mini-batch Gradient Descent, Adaptive Moment Estimation (Adam), Root Mean Square Propagation (RMSProp), Nesterov's Accelerated Gradient (NAG). Во время обучения сети алгоритм корректирует веса нейронов, основываясь на разнице между предсказанными и истинными ответами. Целью является минимизация функции потерь путем подстройки весов так, чтобы сеть выдавала более точные прогнозы. Смещения также корректируются во время обучения, при этом их изменение помогает сети лучше учитывать неожиданные входные значения.