Значок веб-сайта Эксперт.Цифровой

Кто пионеры ИИ? Комплексный анализ революции глубокого обучения

Кто пионеры ИИ? Комплексный анализ революции глубокого обучения

Кто пионеры ИИ? Комплексный анализ революции глубокого обучения – Изображение: Xpert.Digital

Забудьте о ChatGPT: настоящая причина взрыва популярности ИИ — это доклад Google 2017 года «Внимание — это всё, что вам нужно».

Что такое эпоха глубокого обучения?

Эра глубокого обучения относится к периоду с 2010 года, когда развитие искусственного интеллекта существенно ускорилось благодаря нескольким технологическим прорывам. Эта эпоха знаменует собой поворотный момент в истории ИИ, поскольку впервые появились необходимые предпосылки для обучения сложных нейронных сетей: достаточная вычислительная мощность, большие объёмы данных и усовершенствованные алгоритмы.

Термин «глубокое обучение» относится к многослойным нейронным сетям, способным автоматически извлекать абстрактные признаки из данных. В отличие от предыдущих подходов, эти системы больше не нужно программировать вручную для определения признаков, которые они должны распознавать; вместо этого они обучаются этим закономерностям независимо от обучающих данных.

Подходит для:

Почему революция глубокого обучения началась в 2010 году?

2010 год стал переломным, когда произошло три важнейших события. Во-первых, была выпущена база данных ImageNet, содержащая более 10 миллионов размеченных изображений в 1000 категориях, что впервые обеспечило достаточно большой набор данных для обучения глубоких нейронных сетей.

Во-вторых, графические процессоры (GPU) стали достаточно мощными, чтобы обеспечить параллельную обработку больших объёмов данных. Платформа NVIDIA CUDA, представленная в 2007 году, позволила исследователям выполнять интенсивные вычисления, необходимые для глубокого обучения.

В-третьих, алгоритмические усовершенствования, в частности, использование функции активации ReLU вместо традиционных сигмоидальных функций, значительно ускорили обучение. Эта конвергенция наконец позволила реализовать на практике теоретические основы, заложенные в 1980-х годах.

Какой прорыв ознаменовал начало революции глубокого обучения?

Решающий прорыв случился 30 сентября 2012 года с победой AlexNet в конкурсе ImageNet. Свёрточная нейронная сеть, разработанная Алексом Крижевским, Ильёй Суцкевером и Джеффри Хинтоном, достигла уровня ошибок в топ-5 в 15,3%, что более чем на 10 процентных пунктов лучше, чем у алгоритма, занявшего второе место.

AlexNet стала первой сетью, успешно объединившей глубокие нейронные сети, большие наборы данных и вычисления на GPU. Примечательно, что обучение проходило всего на двух видеокартах NVIDIA в спальне Крижевского. Этот успех доказал научному сообществу, что глубокое обучение не только интересно с теоретической точки зрения, но и превосходно с практической.

Успех AlexNet положил начало целому ряду разработок. Уже в 2015 году модель SENet превзошла даже показатель распознавания ImageNet человеком, с уровнем ошибок 2,25%. Это радикальное улучшение всего за несколько лет продемонстрировало огромный потенциал технологии глубокого обучения.

Какую роль сыграла архитектура Трансформера?

В 2017 году команда Google опубликовала новаторскую статью «Внимание — это всё, что вам нужно», в которой была представлена архитектура Transformer. Эта архитектура произвела революцию в обработке естественного языка, полностью полагаясь на механизмы внимания и устраняя необходимость в рекуррентных нейронных сетях.

Особенность трансформеров заключается в их способности обрабатывать данные параллельно: в то время как предыдущим моделям приходилось работать последовательно, слово за словом, трансформеры могут обрабатывать целые предложения одновременно. Механизм внутреннего внимания позволяет модели понимать взаимосвязи между всеми словами в предложении, независимо от их положения.

Архитектура Transformer стала основой всех современных крупномасштабных языковых моделей, от BERT до GPT и Gemini. К 2025 году оригинальная статья была процитирована более 173 000 раз и считается одной из самых влиятельных научных работ XXI века.

Почему Google является ведущим пионером в области искусственного интеллекта?

Согласно анализу Epoch AI, Google лидирует с большим отрывом, имея 168 «заметных» моделей ИИ. Это доминирование можно объяснить рядом стратегических решений, принятых компанией на раннем этапе.

Компания Google активно инвестировала в исследования в области искусственного интеллекта ещё в 2000-х годах и быстро осознала потенциал нейронных сетей. Приобретение DeepMind в 2014 году принесло компании дополнительный опыт. Выпуск фреймворка TensorFlow с открытым исходным кодом в 2015 году также сыграл решающую роль, ускорив разработку ИИ во всём мире.

Вклад Google в архитектуру Transformer был особенно значительным. Статья, опубликованная исследователями Google в 2017 году, заложила основу для современного генеративного искусственного интеллекта. Опираясь на неё, Google разработала BERT (2018), совершивший революцию в обработке естественного языка, а позднее и модели Gemini.

Тесная интеграция исследований и разработки продуктов в Google также способствовала высокой узнаваемости. Модели ИИ напрямую интегрированы в сервисы Google, такие как Поиск, YouTube и Android, что способствует их практическому применению и, следовательно, соответствует критериям «выдающихся» моделей.

Подходит для:

Как развивались Microsoft, OpenAI и Meta?

Microsoft занимает второе место с 43 значимыми моделями искусственного интеллекта. Компания выиграла от стратегического партнерства с OpenAI, в которое Microsoft инвестировала несколько миллиардов долларов. Это сотрудничество позволило Microsoft на ранних этапах интегрировать модели GPT в такие продукты, как Bing и Copilot.

OpenAI занимает третье место с 40 моделями, несмотря на то, что была основана только в 2015 году. Развитие серии GPT, от GPT-1 (2018) до современных моделей, таких как GPT-4 и o3, сделало OpenAI ведущим разработчиком крупных языковых моделей. ChatGPT, выпущенный в 2022 году, привлек миллион пользователей всего за пять дней и открыл миру искусственный интеллект.

Компания Meta (Facebook) разработала серию LLaMA, состоящую из 35 моделей, как альтернативу закрытым моделям с открытым исходным кодом. Модели LLaMA, особенно LLaMA 3 и более новая LLaMA 4, продемонстрировали, что модели с открытым исходным кодом также могут конкурировать с проприетарными решениями.

Подходит для:

Что делает модель ИИ «достойной упоминания»?

Epoch AI определяет модель ИИ как «достойную внимания», если она соответствует хотя бы одному из четырёх критериев. Во-первых, она должна обладать техническим превосходством над признанным эталоном. Во-вторых, она должна иметь высокую частоту цитирования — более 1000. В-третьих, критерием может быть историческая релевантность, даже если модель технически устарела. В-четвёртых, учитывается её значительная практическая польза.

Это определение фокусируется не только на технологическом прогрессе, но и на фактическом влиянии и значимости в научной и экономической среде. Таким образом, модель может считаться заслуживающей внимания, если она находит широкое практическое применение, даже если она не обязательно является самой передовой в техническом плане.

База данных Epoch AI включает более 2400 моделей машинного обучения с 1950 года по настоящее время, что делает её крупнейшей общедоступной коллекцией такого рода. Эта обширная база данных позволяет проводить глубокий анализ развития искусственного интеллекта за более чем 70 лет.

Как развивался ИИ до эпохи глубокого обучения?

История искусственного интеллекта до 2010 года характеризовалась циклами оптимизма и разочарований. 1950-е и 1960-е годы стали временем большого оптимизма, символом которого стал персептрон Фрэнка Розенблатта (1957). Эти ранние нейронные сети породили надежды на скорое появление искусственного интеллекта.

Первая «зима» искусственного интеллекта началась в начале 1970-х годов, спровоцированная книгой Марвина Мински и Сеймура Паперта о пределах возможностей персептронов (1969). Доклад Лайтхилла 1973 года британскому парламенту привёл к резкому сокращению финансирования исследований. Эта фаза продолжалась примерно до 1980 года и значительно замедлила исследования в области искусственного интеллекта.

В 1980-х годах произошел новый всплеск интереса благодаря экспертным системам, таким как MYCIN, медицинская диагностическая система. В то же время, в 1986 году, Джеффри Хинтон, Дэвид Рамельхарт и Рональд Уильямс разработали алгоритм обратного распространения ошибки, который сделал нейронные сети обучаемыми. Янн Лекун разработал LeNet, раннюю свёрточную нейронную сеть для распознавания рукописного ввода, ещё в 1989 году.

Вторая зима ИИ последовала в конце 1980-х, когда высокие ожидания в отношении экспертных систем и LISP-машин были разрушены. Эта фаза продолжалась до 1990-х годов и характеризовалась скептическим отношением к нейронным сетям.

Какие технологические основы сделали возможным глубокое обучение?

Три ключевых прорыва стали причиной революции в области глубокого обучения. Разработка мощных графических процессоров имела основополагающее значение, поскольку они позволяли параллельно обрабатывать большие объёмы данных. Платформа NVIDIA CUDA в 2007 году сделала вычисления на GPU доступными для машинного обучения.

Вторым условием были большие и качественные наборы данных. ImageNet, опубликованный в 2010 году Фэй-Фэй Ли, стал первым проектом, предложившим набор данных, содержащий более 10 миллионов размеченных изображений. Такой объём данных был необходим для эффективного обучения глубоких нейронных сетей.

Третьим столпом стали алгоритмические усовершенствования. Использование функции активации ReLU вместо сигмоидных функций значительно ускорило обучение. Улучшенные процедуры оптимизации и методы регуляризации, такие как дропаут, помогли решить проблему переобучения.

Как изменились затраты на вычисления для обучения ИИ?

Стоимость обучения моделей искусственного интеллекта (ИИ) выросла в геометрической прогрессии. Обучение оригинальной модели Transformer в 2017 году стоило всего 930 долларов. Обучение BERT-Large в 2018 году стоило 3300 долларов, а обучение GPT-3 в 2020 году — около 4,3 миллиона долларов.

Современные модели обходятся ещё дороже: GPT-4 обошлась примерно в 78,4 млн долларов, а Gemini Ultra от Google, стоимостью около 191,4 млн долларов, может оказаться самой дорогой обученной моделью на сегодняшний день. Эта тенденция отражает растущую сложность и размер моделей.

По данным Epoch AI, вычислительная мощность, необходимая для обучения, удваивается примерно каждые пять месяцев. Эта тенденция значительно превосходит закон Мура и свидетельствует о быстром масштабировании исследований в области ИИ. В то же время это приводит к концентрации разработки ИИ в руках нескольких компаний, обладающих необходимыми ресурсами.

Подходит для:

Какие проблемы существуют для дальнейшего развития ИИ?

Разработка ИИ сталкивается с рядом серьёзных проблем. Модели рассуждений, оптимизированные для сложных логических рассуждений, могут достичь предела масштабируемости уже к 2026 году. Огромные вычислительные затраты ограничивают круг участников передовых исследований в области ИИ.

Технические проблемы, такие как галлюцинации, когда системы искусственного интеллекта генерируют ложную информацию, до сих пор не полностью решены. В то же время этические вопросы возникают из-за возможности создания обманчиво реального контента, как это было продемонстрировано вирусным изображением Папы Римского в пуховике, созданным искусственным интеллектом.

Доступность высококачественных обучающих данных становится всё более серьёзной проблемой. Многие модели уже обучены с использованием значительной части доступных интернет-данных, что требует новых подходов к их генерации.

Как развитие ИИ влияет на общество?

Революция глубокого обучения уже оказывает огромное влияние на общество. Системы ИИ используются в таких критически важных областях, как медицинская диагностика, финансы и беспилотные автомобили. Потенциал позитивных изменений огромен: от ускорения научных открытий до персонализации образования.

В то же время возникают новые риски. Возможность создания реалистичного фейкового контента ставит под угрозу целостность информации. Автоматизация может поставить под угрозу рабочие места: Федеральное министерство труда Германии ожидает, что к 2035 году ни одна работа не будет обходиться без программного обеспечения на основе искусственного интеллекта.

Концентрация мощностей ИИ в руках нескольких технологических компаний ставит под сомнение демократичность контроля над этой мощной технологией. Такие эксперты, как Джеффри Хинтон, один из пионеров глубокого обучения, предупреждают о потенциальных опасностях будущих систем ИИ.

Пионеры ИИ эпохи глубокого обучения создали технологию, способную коренным образом преобразить человечество. Лидерство Google в разработке 168 значимых моделей ИИ, за которым следуют Microsoft, OpenAI и Meta, демонстрирует концентрацию инновационного потенциала в руках нескольких игроков. Революция глубокого обучения, начавшаяся в 2010 году и начавшаяся с таких прорывов, как AlexNet и архитектура Transformer, уже преобразила нашу повседневную жизнь и продолжит это делать в будущем. Задача состоит в том, чтобы использовать эту мощную технологию на благо человечества, минимизируя при этом связанные с ней риски.

Подходит для:

 

Ваша трансформация искусственного интеллекта, интеграция ИИ и эксперт по индустрии платформ AI

☑️ Наш деловой язык — английский или немецкий.

☑️ НОВИНКА: Переписка на вашем национальном языке!

 

Конрад Вольфенштейн

Я был бы рад служить вам и моей команде в качестве личного консультанта.

Вы можете связаться со мной, заполнив контактную форму или просто позвоните мне по телефону +49 89 89 674 804 (Мюнхен) . Мой адрес электронной почты: wolfenstein xpert.digital

Я с нетерпением жду нашего совместного проекта.

 

 

☑️ Поддержка МСП в разработке стратегии, консультировании, планировании и реализации.

☑ Создание или перестройка стратегии ИИ

☑️ Пионерское развитие бизнеса

Выйти из мобильной версии