Вибір голосу 📢


Походження штучного інтелекту: як 1980 -ті роки заклали основу для сьогоднішніх генеративних моделей

Опубліковано: 14 грудня 2024 р. / Оновлення від: 14 грудня 2024 р. - Автор: Конрад Вольфенштейн

Походження штучного інтелекту: як 1980 -ті роки заклали основу для сьогоднішніх генеративних моделей

З походження штучного інтелекту: як 1980 -ті роки заклали основу для сьогоднішніх генеративних моделей - зображення: xpert.digital

Піонери ШІ: Чому 1980 -ті роки були десятиліттям візіонерів

Революційні 80 -ті: народження нейронних мереж та сучасний ШІ

1980 -х років були десятиліттями змін та інновацій у світі технологій. Поки комп’ютери все частіше переходили до компаній та домогосподарств, вчені та дослідники працювали над тим, щоб зробити машини більш розумними. Ця епоха заклала фундамент для багатьох технологій, які ми приймаємо як належне сьогодні, особливо в галузі штучного інтелекту (AI). Прогрес у цьому десятилітті був не лише новаторським, але мав тривалий вплив на те, як ми сьогодні взаємодіємо з технологіями.

Відродження нейронних мереж

Після фази скептицизму порівняно з нейрональними мережами у 1970 -х роках у 1980 -х роках у 1980 -х роках. Це було багато в чому завдяки роботі Джона Хопфілда та Джеффрі Хінтона.

Джон Хопфілд та мережі Хопфілда

У 1982 році Джон Хопфілд представив нову модель нейронних мереж, яка згодом стала відомою як мережа Хопфілда. Ця мережа змогла зберігати шаблони та згадувати енергетичну мінімізацію. Це був важливий крок до асоціативної пам’яті та показав, як нейронні мережі можна використовувати для пограбування та реконструкції інформації.

Джеффрі Хінтон та машина Болцмана

Джеффрі Хінтон, один з найвпливовіших дослідників AI, розробив машину Болцмана разом з Терренсом Седжновського. Ця стохастична система нейронної мережі змогла вивчити складні розподіли ймовірностей і використовувалася для розпізнавання закономірностей у даних. Машина Болцмана заклала фундамент для багатьох пізніших подій у галузі глибокого навчання та генеративних моделей.

Ці моделі були новаторськими, оскільки вони показали, як нейронні мережі можна використовувати для того, щоб не тільки класифікувати дані, але й для створення нових даних або для завершення неповних даних. Це було вирішальним кроком до генеративних моделей, які сьогодні використовуються у багатьох областях.

Зростання експертних систем

1980 -ті також були десятиліттям експертних систем. Ці системи мали на меті кодифікувати та використовувати досвід експертів людини в певних областях з метою вирішення складних проблем.

Визначення та застосування

Експертні системи ґрунтуються на підходах, заснованих на правилах, в яких знання зберігаються у вигляді правил IF-Then. Вони використовувались у багатьох областях, включаючи медицину, фінанси, виробництво тощо. Добре відомий приклад -система медичної експерта Mycin, яка допомогла діагностувати бактеріальні інфекції.

Значення для AI

Експертні системи показали потенціал ШІ в практичних програмах. Вони продемонстрували, як машинні знання можуть бути використані для прийняття рішень та вирішення проблем, які раніше вимагали досвіду людини.

Незважаючи на свій успіх, експертні системи також показали межі регулярних підходів. Їх часто було важко оновити і не могли добре боротися з невизначеністю. Це призвело до переосмислення та створення місця для нових підходів у машинному навчанні.

Прогрес у машинному навчанні

1980 -х років відзначили перехід від систем, що базуються на правилах, до методів навчання, спричинених даними.

Алгоритм розповсюдження назад

Найважливішим проривом стало повторне відкриття та популяризація алгоритму розповсюдження заднього періоду для нейронних мереж. Цей алгоритм дозволив ефективно адаптувати ваги в мультиінній нейронній мережі, поширюючи помилку назад через мережу. Це зробило більш глибокі мережі більш практичними та заклало фундамент для сьогоднішнього глибокого навчання.

Прості генеративні моделі

Окрім завдань класифікації, дослідники почали розробляти генеративні моделі, які вивчали базовий розподіл даних. Наївний класифікатор Байєса - це приклад простої ймовірнісної моделі, яка, незважаючи на свої припущення, успішно використовувалася у багатьох практичних програмах.

Цей прогрес показав, що машини не тільки повинні бути залежними від заздалегідь визначених правил, але й дізналися з даних, щоб вирішити завдання.

Технологічні виклики та прориви

Хоча теоретичний прогрес був перспективним, дослідники стикалися з значними практичними проблемами.

Обмежена обчислювальна потужність

Обладнання 1980 -х років було дуже обмеженим порівняно з сьогоднішніми стандартами. Навчання складних моделей було споживаючим і часто недоступним.

Проблема зникаючого градієнта

Під час навчання глибоких нейронних мереж із поширенням спини часто виникала проблема, що градієнти в нижніх шарах стали занадто малі, щоб забезпечити ефективне навчання. Це значно ускладнило навчання нижчих моделей.

Інноваційні рішення:

Обмежені машини Больцмана (RBMS)

Для вирішення цих проблем Джеффрі Хінтон розробив обмежені машини Болцмана. RBMS - це спрощена версія машини Boltzmann з обмеженнями в мережевій структурі, що полегшило навчання. Вони стали будівельними блоками для більш глибоких моделей і дозволили шару попередніх нейронних мереж.

Зміни перед тренуванням

Поступово навчаючи мережу, один шар за іншим дослідниками змогли більш ефективно навчати глибокі мережі. Кожен шар навчився перетворювати вихід попереднього шару, що призвело до кращої загальної продуктивності.

Ці інновації мали вирішальне значення для подолання технічних перешкод та покращення практичної застосовності нейронних мереж.

Довговічність досліджень 80 -х

Багато методів, що використовуються в глибокому навчанні, що використовуються сьогодні, мають своє походження в роботі 1980 -х

Багато методів, що використовуються в глибокому навчанні, що використовується сьогодні, мають своє походження у роботі 1980 -х - зображення: xpert.digital

Поняття, розроблені в 1980 -х роках, не тільки вплинули на дослідження, але й проклали шлях до майбутніх проривів.

Перший незалежний інститут штучного інтелекту був заснований у 1987 році за допомогою FAW Ulm (науково -дослідний інститут обробки знань). Такі компанії, як Daimlerchrysler AG, Jenoptik AG, Hewlett-Packard GmbH, Robert Bosch GmbH та ще кілька. Я сам був науковим співробітником з 1988 по 1990 рік .

Основа для глибокого навчання

Багато методів, що використовуються в глибокому навчанні, що використовується сьогодні, мають своє походження у роботі 1980 -х. Ідеї ​​алгоритму зворотного розповсюдження, використання нейронних мереж з прихованими шарами та стилем зсуву є центральними компонентами сучасних моделей AI.

Розробка сучасних генеративних моделей

Рання робота над машинами Больцмана та РБМ вплинула на розробку різноманітних автокодерів (VAE) та генеративних змагальних мереж (Goose). Ці моделі дозволяють реалістичним зображенням, текстам та іншими даними для генерування та додатків у таких сферах, як мистецтво, медицина та розваги.

Вплив на інші дослідницькі сфери

Методи та поняття 1980 -х років також вплинули на інші сфери, такі як статистика, фізика та нейронауки. Міждисциплінарність цього дослідження призвела до глибшого розуміння як штучних, так і біологічних систем.

Застосування та вплив на суспільство

Прогрес 1980 -х років призвів до конкретних застосувань, які утворюють основи для багатьох технологій сьогодні.

Розпізнавання мови та синтез

Ранні нейронні мережі використовувались для розпізнавання та відтворення мовних моделей. Це заклало фундамент для голосових помічників, таких як Сірі або Алекса.

Розпізнавання зображень та візерунків

Здатність нейронних мереж розпізнавати складні закономірності була використана для медичних зображень, розпізнавання обличчя та інших технологій релевантних безпеки.

Автономні системи

Принципи механічного навчання та ШІ з 1980 -х є основними для розвитку автономних транспортних засобів та роботів.

1980 -ті: розумне навчання та генерування

1980 -х років, безсумнівно, десятиліття від'їзду в дослідженні ШІ. Незважаючи на обмежені ресурси та численні виклики, дослідники мали бачення інтелектуальних машин, які можуть навчитися та генерувати.

Сьогодні ми ґрунтуємось на цих основах і переживаємо епоху, в якій штучний інтелект присутній майже в усіх аспектах нашого життя. Від персоналізованих рекомендацій в Інтернеті до прориву в медицині - технологій, початки яких у 1980 -х роках, сприяють інноваціям.

Захоплююче бачити, як ідеї та поняття з цього часу реалізуються у дуже складних та потужних системах. Робота піонерів не тільки зробила можливим технічний прогрес, але й ініціював філософські та етичні дискусії про роль ШІ в нашому суспільстві.

Дослідження та розробки 1980 -х років у галузі штучного інтелекту були вирішальними для формування сучасних технологій, які ми використовуємо сьогодні. Завдяки впровадженню та вдосконаленню нейронних мереж, подолання технічних викликів та бачення створення машин, які можуть навчитися та генерувати, дослідники пробили свій шлях до майбутнього цього десятиліття, в якому AI відіграє центральну роль.

Успіхи та виклики цього часу нагадують нам про те, наскільки важливими є основні дослідження та прагнення до інновацій. Дух 1980 -х живе в кожному новому розвитку AI і надихає майбутніх поколінь, щоб переміщувати межі можливих.

Підходить для цього:


Штучний інтелект (KI) -AI-блог, Hotspot та Content HubAIS Штучний пошук інтелекту / ki-пошук / neo seo = nso (оптимізація пошуку наступного гена)цифровий інтелектxpaper