Предмет:
Тип роботи:
Курсова робота
К-сть сторінок:
38
Мова:
Українська
Є – Студент
Ісп_1 – Є – Іспит
Ісп_1 – Хто_Здав_ – Іванов
Ісп_1 – Предмет – Шт. Інт
Ісп_1 – Оцінка – 5Іванов – Є – Студент
Ісп_2 – Є – Іспит
Ісп_2 – Хто_Здав – Іванов
Ісп_2 – Предмет – Лісп
Ісп_2 – Оцінка – 2
Зверніть особливу увагу на номери в предикатних іменах: кожному фактові здачі іспиту відповідає свій номер, для іншого студента або для іншого предмету предикатне ім’я буде іншим (інакше при описі відношення “багато до багатьох” знову виникне неоднозначність.
7. Нейронні мережі
Нейронні мережі, або штучні нейронні мережі, являють собою розвиток моделей, які виникли в результаті спроб імітування механізму мислення людини. Для визначення класів задач штучного інтелекту (насамперед, розпізнавання, інтелектуального управління динамікою складних механічних систем тощо) нейромережні моделі часто забезпечують ефективніше рішення, ніж традиційні символьні підходи.
У самих загальних рисах результатом функціонування нейронної мережі є сигнал, що ідентифікує належність вхідного зображення до одного з кількох класів (тобто мережа здійснює категоризацію зображень).
Елементарна складова мережі – нейрон – має кілька входів і один вихід. Елементи вхідного вектора множаться на вагові коефіцієнти W1. W2,..., Wn; зважені значення сумуються і надходять довходу порогового елемента, двійковий вихід якого є виходом нейрона. У загальному випадку для відтворення нелінійності можуть використовуватися не тільки «ступеневі», а й «похилі» функції.
Однією, з найважливіших особливостей нейромереж є їх спроможність до навчання. В процесі навчання нейрона відбувається піднастроювання вагових коефіцієнтів таким чином, щоб він правильно класифікував максимальну кількість вхідних зображень. При поданні чергового навчаючого зображення оцінюється різниця (похибка) між потрібним вхідним значенням сумуючого елемента і його фактичним значенням. Звичайно для піднастроювання ваги використовується алгоритм, який мінімізує суму квадратів відхилень за період навчаючої послідовності.
Окрім того, не можна гарантувати, що розроблена мережа є оптимальною мережею. Застосування нейромереж вимагає від розробника виконання ряду умов.
Ці умови включають:
множину даних, що включає інформацію, яка може характеризувати проблему;
відповідно встановлену за розміром множину даних для навчання і тестування мережі;
розуміння базової природи проблеми, яка буде вирішена;
вибір функції суматора, передатної функції та методів навчання;
розуміння інструментальних засобів розробника;
відповідна потужність обробки.
Новий шлях обчислень вимагає вмінь розробника поза межами традиційних обчислень. Спочатку, обчислення були лише апаратними і інженери робили його працюючим. Потім, були спеціалісти з програмного забезпечення: програмісти, системні інженери, спеціалісти по базах даних та проектувальники. Тепер є нейронні архітектори. Новий професіонал повинен мати кваліфікацію відмінну від його попередників. Наприклад, він повинен знати статистику для вибору і оцінювання навчальних і тестових множин. Логічне мислення сучасних інженерів програмного забезпечення, їх емпіричне вміння та інтуїтивне відчуття гарантує створення ефективних нейромереж.
Сучасні дослідження фізіології мозку відкривають лише обмежене розуміння роботи нейронів і процесу мислення. Дослідники працюють як в біологічній, так і в інженерній галузях для розшифрування ключових механізмів нейронної обробки, що допомагає створювати потужніші і більш стислі нейромережі.
Для складних проблем класифікації з подібними вхідними прикладами, мережа вимагає великої карти Кохонена з багатьма нейронами на клас. Це вибірково може бути подолано вибором доцільних навчальних прикладів або розширенням вхідного прошарку.
Мережа квантування навчального вектора страждає від дефекту, що деякі нейрони мають тенденцію до перемоги занадто часто, тобто налаштовують свої ваги дуже швидко, а інші постійно залишаються незадіяними. Це часто трапляється, коли їх ваги мають значення далекі від навчальних прикладів. Щоб пом'якшити цю проблему, нейрон, який перемагає занадто часто штрафується, тобто зменшуються ваги його зв'язків з кожним вхідним нейроном. Це зменшення ваг є пропорційним до різниці між частотою перемог нейрону та частотою перемог середнього нейрону.
8. Генетичні алгоритми
Задачі оптимізації – найбільш розповсюджений і важливий для практики клас задач. Їх приходиться вирішувати кожному з нас або в побуті, розподіляючи свій час між різними справами, або на роботі, домагаючись максимальної швидкості роботи програми чи максимальної прибутковості компанії – у залежності від посади. Серед цих задач є розв'язувані простим шляхом, але є і такі, точне рішення яких знайти практично неможливо.
Як правило, у задачі оптимізації ми можемо керувати декількома параметрами (позначимо їх значення через x1, x2,..., xn, а нашою метою є максимізація (чи мінімізація) деякої функції, f (x1, x2,..., xn), що залежить від цих параметрів. Функція f називається цільовою функцією. Наприклад, якщо потрібно максимізувати цільову функцію «дохід компанії», тоді керованими параметрами будуть число співробітників компанії, обсяг виробництва, витрати на рекламу, ціни на кінцеві продукти і т. д. Важливо відзначити, що ці параметри зв'язані між собою – зокрема, при зменшенні числа співробітників швидше за все впаде й обсяг виробництва.
Генетичний алгоритм – новітній, але не єдино можливий спосіб рішення задач оптимізації.
Відомо два основні шляхи рішення таких задач – переборний та градієнтний. Розглянемо класичну задачу комівояжера. Суть задачі полягає у знаходженні короткого шляху проходження всіх міст.
Переборний метод є найпростішим. Для пошуку оптимального рішення (максимум цільової функції) потрібно послідовно обчислити значення функції у всіх точках. Недоліком є велика кількість обчислень.
Іншим способом є градієнтний спуск. Обираємо випадкові значення параметрів, а потім значення поступово змінюють, досягаючи найбільшої швидкості зросту цільової функції. Алгоритм може зупинитись, досягнувши локального максимуму. Градієнтні методи швидкі, але не гарантують оптимального рішення (оскільки цільова функція має декілька максимумів).
Генетичний алгоритм являє собою комбінацію переборного та градієнтного методів. Механізми кросоверу (схрещування) та мутації реалізують переборну частину, а відбір кращих рішень – градієнтний спуск.
Тобто, якщо на деякій множині задана складна функція від декількох змінних, тоді генетичний алгоритм є програмою, яка за зрозумілий час знаходить точку, де значення функції знаходиться достатньо близько до максимально можливого значення. Обираючи прийнятний час розрахунку, отримуємо одне з кращих рішень, які можна отримати за цей час.
Висновок
У цій курсовій роботі ми розглянули основні проблемні середовища штучного інтелекту. Розрізняють статичне та динамічне проблемне середовище. Для статичних проблемних середовищ характерним є вирішення статичних задач аналізу і синтезу; використання загальних і спеціалізованих тверджень, що виконуються; статична предметна область; сутності представляються у виді об'єктів; склад сутностей змінюваний; БЗ структуровані, а для динамічних – вирішення динамічних задач аналізу і синтезу; динамічна предметна область; сутності представляються сукупністю атрибутів і їхніх значень; склад сутностей незмінний; БЗ не структуровані.
Важливими проблемами для вирішення є проблеми неточних і неповних знань; проблеми виведення; та винятків.
Ненадійність знань і недостовірність наявних фактів обов”язково повинні враховуватися в процесі логічних побудов. Звичайно, можна було б просто відкидати факти та првила виведення, які викликають сумнів, але тоді довелося б відмовитися від цінної інформації. Тому необхідно розвивати процедури, які дозволяють здійснювати логічні побудови при недостовірних даних, і використовувати ці процедури в експертних системах. Необхідно враховувати модальність, а саме: необхідність або можливість того чи іншого факту, ставлення суб”єкта до деякого твердження і т. п.
З успадкуванням пов’язана дуже серйозна проблема – проблема винятків. Вона полягає в тому, що деякі підкласи можуть не успадковувати ті чи інші властивості надкласів. Інакше кажучи, характерні риси класу успадковуються всіма його підкласами, крім деяких.
Відомі складності сучасного програмування, пов’язані з необхідністю надмірної алгоритмізації, тобто детального ретельного розписування інструкцій з урахуванням усіх можливих ситуацій.
Список використаних джерел:
1. Глибовець М. М., Олецький О. В., „Штучний інтелект”, К. 2002;
2. Герман О. В. Введення в теорію експертних систем і опрацювання знань. – Мінськ: ДизайнПРО, 1995.
3. В. Брауэр. Введення в теорію кінцевих автоматів. -М. : «Радіо і зв'язок», 1987.
4. Болотова Л. С., Смольянинов А. А. Неформальные модели представления знаний в системах искусственного интеллекта / Московский институт радиотехники, электроники и автоматики (ТУ) – М., 1999.
5. Клыков Ю. И., Горьков Л. Н. Банки данных для принятия решений. – М., 1980.
6. Представление и использование знания / под ред. Х. Уэно, М. Исидзука. – М., 1989.
7. Джексон П. Введение в экспертные системы. – М. -С-П. -К. : Изд. дом “Вильямс “, 2001.