贵州菜属于什么菜系| 刘秀和刘邦是什么关系| 什么的点头| 立加羽念什么| 土色是什么颜色的图片| 气机是什么意思| 精美的什么| 水瓶座的幸运色是什么颜色| 七月三十是什么星座| 什么时候受孕率最高| 想要孩子需要做什么检查| 三堂会审是什么意思| 无为什么意思| mri检查是什么| 先什么后什么| 构造是什么意思| 菊花有什么功效和作用| 为什么手会掉皮| 河北古代叫什么| 吃白饭是什么意思| 米醋是什么| 睾丸肿大吃什么药| 八面玲珑是什么数字| 粘米粉是什么粉| 公关是干什么的| 炭疽病用什么药| 什么叫腺肌瘤| 行政许可是什么意思| 梦到数钱代表什么预兆| 什么叫基因检测| 容易上火是什么原因| 社保局是干什么的| 频繁打嗝是什么原因| 委屈什么意思| 甲状腺滤泡性肿瘤是什么意思| 脾虚湿盛吃什么药| 晚上难以入睡是什么原因| 父母都是a型血孩子是什么血型| 吃番茄有什么好处| 安德玛是什么牌子| lee是什么意思| 舌下含服是什么意思| 婆什么起舞| 什么是胰腺| 囟门凹陷是什么原因| 属鸡的贵人是什么属相| ngu是什么意思| 什么时候是情人节| 甘油三酯偏高是什么原因| 侧着睡觉有什么坏处| 舌头白苔厚是什么原因| 甲亢是什么原因导致的| 胃不好早餐吃什么好| 男性生殖长水泡是什么原因| 4月9号是什么星座| 头发没有光泽是什么原因| 夜盲症是什么意思| 舒俱来是什么宝石| 猫咪泪痕重是什么原因| 盐和醋泡脚有什么好处| 捆绑是什么意思| 排卵试纸什么时候测最准确| 一什么椅子| 白带有腥味是什么原因| 深海鱼油有什么功效| 克加寸念什么| 杨梅有什么功效| 一天中什么时候最冷| 为什么会得水痘| 避孕药叫什么| 墙内开花墙外香是什么意思| 心衰吃什么药效果最好| 纤维素纤维是什么面料| 钠尿肽高是什么原因| asia是什么意思| 肩周炎用什么药好| 老人出汗多是什么原因| 括约肌是什么| 副主任科员是什么级别| 消谷善饥是什么意思| 卧推80公斤什么水平| 冰火两重天什么意思| 梦见雪是什么意思| 么么叽是什么意思| 酸奶有什么好处| 胸痛一阵一阵的痛什么原因| 龟头炎是什么症状| 什么是涤纶面料| 木乃伊是什么| 喝醉是什么感觉| 什么入伏| 支元体阳性是什么意思| 颈动脉斑块挂什么科| 什么人一年只工作一天脑筋急转弯| 水飞蓟是什么| 病毒性感冒吃什么药效果好| 什么节日吃饺子| hennessy是什么酒价格多少| 走路气喘是什么原因| 哀莫大于心死什么意思| 米粉和米线有什么区别| 痛风是什么原因| 东北和山东有什么区别| 甲亢和甲减有什么区别| 生蚝和什么不能一起吃| 蒲地蓝消炎片治什么病| 无语是什么意思| 生孩子前做什么检查| 女人梦到蝎子什么征兆| 佛历是什么意思| 普洱茶有什么功效与作用| 什么叫数字货币| 雪梨是什么梨| 姓彭的女孩子取什么名字好| 妥瑞氏症是什么病| 红楼梦为什么是四大名著之首| 六七是什么意思| 白化病是什么原因引起的| co2是什么意思| 手容易出汗是什么原因| bug是什么意思中文翻译| 八嘎呀路是什么意思| 主诉是什么意思| 青春痘是什么原因引起的| 乙型肝炎病毒表面抗体阳性是什么意思| 射手女跟什么星座最配| gc是什么| 弱的部首是什么| 子宫肌瘤吃什么药| 甲胎蛋白是检查什么| pending是什么状态| 办理生育登记有什么用| 面粉可以做什么| 大便出血吃什么药好得快| 脚心痒是什么预兆| ro什么意思| 鼻子大的男人说明什么| poscer是什么牌子| 阴道流黄色分泌物是什么原因| 梦见蛇是什么意思| 丁火是什么意思| 叶赫那拉氏是什么旗| 孩子感冒发烧吃什么药| 鲶鱼效应是什么意思| 食道好像有东西堵着是什么原因| 巴基斯坦讲什么语言| 舌头下面的筋叫什么| 四次元是什么意思| 没有孕吐反应说明什么| 狗毛对人体有什么危害| 地藏菩萨的坐骑是什么| imei是什么意思| 白酒泡什么补肾壮阳最好| 火和什么相生| 资金流入股价下跌为什么| 女人阴唇发黑是什么原因| 身体缺钾有什么症状| 不知道叫什么名字好| bace是什么意思| 血糖高吃什么主食最好| 晚点是什么意思| 为什么喝牛奶会长痘| 生日派对是什么意思| 15岁可以做什么兼职| 胰腺炎吃什么食物| 晚上睡觉腿抽筋是什么原因| 什么是春天的什么| 孕妇生气对胎儿有什么影响| 天麻有什么作用| 骶管小囊肿是什么意思| 刘胡兰是什么样的人| 最大的行星是什么| 一什么耳朵填量词| 健康管理是干什么的| 开什么店最赚钱| 12.6是什么星座| 做梦梦见掉头发是什么意思| 什么症状是怀孕了| ky什么意思| 例假期间吃什么减肥| 5.8是什么星座| 氟化钠是什么| 扑热息痛又叫什么名| 鹰和隼有什么区别| 爆表是什么意思| 女人送男人打火机代表什么| a型血和b型血生的孩子是什么血型| 黎山老母什么级别神仙| 涵字属于五行属什么| 头晕什么原因引起的| 心肌缺血是什么原因造成的| 肾钙化灶是什么意思| 手串14颗代表什么意思| 日语斯国一是什么意思| 高炮是什么| 为什么嘴巴会臭| 礼部尚书是什么官| 皮肤暗黄是什么原因| gb10769是什么标准| 2月10号是什么星座| 碳水化合物是什么东西| 肝回声密集是什么意思| 惊弓之鸟是什么故事| 阿q精神是什么意思| vte是什么意思| 血淀粉酶是查什么的| 三刀六洞什么意思| 胸闷气短吃什么特效药| 炭疽病用什么药最好| 切花是什么意思| 什么农药最毒| 桃子不能和什么一起吃| 腿肿脚肿是什么原因引起的| 结婚六十年是什么婚| 刀纸是什么| 腰椎疼痛吃什么药| vvs是什么意思| 人得猫癣用什么药| 处女膜是什么颜色| 7月17什么星座| vogue什么意思| 卯戌相合发生什么| 线索细胞阳性什么意思| 18岁是什么年华| 痔疮吃什么| 绿豆煮出来为什么是红色的| 三个毛念什么| 肠胃不好吃什么菜比较好| 朱砂是什么意思| 风寒感冒用什么药| 前列腺炎吃什么药最有效| 甲状腺有血流信号是什么意思| 颈椎骨质增生吃什么药效果好| 奥硝唑和甲硝唑有什么区别| 一什么故事| 东北冻梨是什么梨| 美尼尔综合征吃什么药| 小孩子为什么会得抽动症| 今年属于什么年| 小便有泡沫是什么情况| 什么叫安置房| 阴茎是什么| 对头是什么意思| 解压密码是什么| 陈赫是什么星座的| 双瞳电影到底讲了什么| 一什么清凉| 电解工是干什么的| 胃轻度肠化是什么意思| 唾液腺是什么组织| 甘油三酯高不能吃什么| 动员是什么意思| 邮件号码是什么| 水瓶座前面是什么星座| 刚愎自用代表什么生肖| 非甾体是什么意思| 人的心脏在什么位置| 做飞机需要注意什么| 激素6项什么时候查| 头疼去医院挂什么科| 虎眼石五行属什么| 枫字五行属什么| 医生代表什么生肖| 兰桂齐芳是什么意思| 百度Пре?ди на содржината

创力股份(股票代码831429)新三板上市最新公告列表

Од Википеди?а — слободната енциклопеди?а
Пример за вештачка невронска мрежа
百度 具体费用根据车型以到店核算为准。

Вештачка невронска мрежа - ВНМ (анг. artificial neural network - ANN[1]) е парадигма за обработка на информации ко?а е инспирирана од начинот на ко? биолошки нервен систем, како што е мозокот, обработува информации. Клучниот елемент на оваа парадигма е необичната структура на обработувачки информациски систем. Таа е составена од голем бро? на ме?усебно поврзани елементи за обработка (неврони), кои работат едногласно за да се решат конкретни проблеми.

Поим за невронска мрежа

[уреди | уреди извор]

Вештачката невронска мрежае систем ко? е заснован на биолошките невронски мрежи, како што е мозокот. Невроните ме?усебно се поврзани со врски кои се нарекуваат синапси. Секо? неврон поседува ил?адници врски со други неврони преку кои константно добива сигнали што треба да бидат стигнат до телото на клетката (невронот). Доколку резултантната сума од сигналите надмине одреден дефиниран праг (threshold), преку аксонот се испра?а одговор. Тоа значи дека биолошкиот неврон ги сумира сигналите кои пристигнуваат до него, добиената сума ?а споредува со одреден праг и доколку таа го надмине прагот, невронот испра?а одреден излезен сигнал.[2][3]

Невронските мрежи со сво?ата извонредна можност за изведува?е смисла од комплицирани или непрецизни податоци, може да се користат за да се изведат шаблони и да се детектираат трендовите кои се премногу комплексни за да бидат забележани од страна на лу?ето или други сметачки техники. Обучена невронска мрежа може да се смета за експерт во категори?ата на информациите што и се дадени да се анализираат. Ово? експерт потоа може да се користи за да обезбеди прогнози при дадени ситуации во доменот на нашиот интерес, и да одговори на праша?а од видот ?што ако...?“.

Другите предности вклучуваат:

  • Адаптивно уче?е - способноста да се научи како да се изведат задачи врз основа на податоци дадени за обука или првично искуство;
  • Сопствена организаци?а - вештачката невронска мрежа може да создава сопствена организаци?а или претстава на информациите што ги добива во текот на времето за уче?е;
  • Операции во реално време - пресметките може да се извршуваат паралелно;
  • Толеранци?а на грешки преку кодира?е на излишни информации (redundant information coding) - делумното унишува?е на мрежата води кон соодветна деградаци?а на делотворноста, но сепак некои способности може да се задржат дури и при големо оштетува?е на мрежата.

Состо?ба на активаци?а

[уреди | уреди извор]

Аналогно на биолошката интерпретаци?а, невронската мрежа во контекст на експертните системи претставува модел на пресметки со поврзовен пристап, ко? соодветно се состои од множество на обработувачки единки - неврони.

Главна одлика на невронските мрежи е состо?бата на активаци?а. Состо?бата на активаци?а во потесна смисла го претставува излезот од даден ?азол, а во поширока означува дали влезот на ?азелот бил над граничната вредност, односно дали невронот се активирал. Заради ме?уповрзаноста, во невронските мрежи имаме правило на пропагаци?а кое пропишува колку излезот на даден ?азол зависи од индиректните влезови во то? ?азол.

Во структурна смисла, невронската мрежа се состои од:

  • Множество на обработувачки единици (неврони, ?азли);
  • Состо?бата на активаци?а yk за секо?а единка, ко?а е еквивалентна на излезот од единката;
  • Врски поме?у единките, при што вообичаено секо?а врска е дефинирана со тежина wjk ко?а го одредува ефектот (вли?анието) кое го има единката j на единката k;
  • Правило на пропагаци?а, кое го одредува делотворниот излез на единка од неговите надворешни влезови;
  • Функци?а на активаци?а Fk, ко?а ?а редефинира состо?бата на активаци?а врз основа на делотворниот влез (t) и актуелната активаци?а yk(t), т.е. дава нова вредност на состо?бата на активаци?а;
  • Надворешен влез (bias или офсет) за секо?а единка;
  • Метода за прибира?е на информациите (правило на уче?е);
  • Средина во ко?а системот ?е де?ствува, обезбедува?е на влезни сигнали и ако е потребно, сигнали за грешка.

Секо?а единка извршува релативно едноставна задача: добива влез од соседите или од надворешни извори и го користи ова за да пресмета излезен сигнал ко? понатаму се шири (пренесува) до останатите единки. Освен оваа обработка, втора задача на невронот е поставува?е на тежините. Системот е паралелен, така да пове?е единки може да ги вршат своите пресметки во исто време.

Во рамките на невронските мрежи, разликува три типа на ?азли:

  • влезни ?азли - кои ги примаат сигналите,
  • излезни ?азли - кои ги испра?аат податоците надвор од системот, и
  • скриени ?азли - чии влезни и излезни сигнали остануваат внатре во мрежата. Тие се користат само за внатрешна модификаци?а на мрежата.

За време на операциите, ?азлите може да се обновуваат синхроно или асинхроно. Ка? синхроното обновува?е сите ?азли ?а обновуваат сво?ата активаци?а истовремено, додека ка? асинхроните, секо?а ?азол има сво?а (вообичаено фиксна) веро?атност на обнова за време t, и вообичаено само една единка ?е може да изврши активаци?а во единица време.

Топологии на невронски мрежи

[уреди | уреди извор]

Разликуваме два типа на топологии на невронски мрежи:

  1. Еднонасочни мрежи (feedforward)[4] - Тука патеката на податоците од влезните до излезните ?азли е строго одредена. Обработката на податоците може да се прошири преку пове?е слоеви на ?азли, ме?утоа нема повратни врски, односно нема врски од излезни до влезни ?азли во исти или различни слоеви.
  2. Повратни мрежи (рекурентни) - Тоа се мрежи кои содржат повратни врски. За разлика од еднонасочните мрежи, тука динамичките сво?ства на мрежата се важни. Во некои случаи, активациските вредности на ?азлите подлежат на процес на релаксаци?а, така да мрежата еволуира во стабилна состо?ба во ко?а овие вредности пове?е нема да се менуваат. Во други промени, промената на активациските вредности на излезните ?азли е знача?на, така да динамичкото однесува?е го чини излезот на мрежата.

Невронски мрежи како класификатори

[уреди | уреди извор]

Невронските мрежи имаат одлики кои ги прават многу погодни за користе?е во експертните системи, заради нивните погодности за создава?е на системи за класификаци?а. Некои од тие одлики се:

  • можноста за паралелна, дистрибуирана обработка;
  • архитектурата на насочен тежински граф му овозможува да меморира промена на тежини и прагови, и автоматски да класифицира;
  • толерантноста на грешки и адаптибилноста, односно ако некои неврони не функционираат, останатите ?е се адаптираат.

Перцептрон

[уреди | уреди извор]

Перцептронот е вештачки неврон ко? моделира биолошки неврон од природата. То? добива n влезни сигнали кои соодветствуваат на бро?от на сво?ства (input features) од податочното множество кое се анализира, ги сумира тие влезни сигнали, го проверува резултатот (споредува??и го со одреден праг) и според него произведува излезен сигнал. Перцептронот се состои од пондери (weights - wi), процесор на сума (s) и активациска функци?а (f(s)). На сигналите кои доа?аат на влезот на перцептронот им се доделуваат пондери (weights) кои на?често претставуваат реални броеви како и влезните сигнали, така што зборуваме за вкупно n ?weighted inputs“, кои се влезни сигнали. Доколку првиот влезен сигнал го означиме со x1, а неговиот пондер со w1 додека i-тиот влезен сигнал е xi со пондер wi, тогаш последниот (n-ти) влезен сигнал е xn, а неговиот пондер е wn. Сумата на сите сигнали кои доа?аат на влезот на перцептронот претставуваат збир од сите производи на xi и wi, каде вредноста на i се движи од 1 до n.[5][6]

S = Σwi × xi

Така добиената сума (S) се проследува како аргумент до активациска функци?а (f(s)) ко?а врши проверка (споредба) на сумата со одреден праг (θ). Доколку сумата е поголема од прагот (θ), перцептронот на излезот испра?а сигнал 1, додека во обратен случа?, кога сумата е помала или еднаква со прагот (θ,) излезниот сигнал на перцептронот е 0, иако во литературата може да се на?дат об?аснува?а за перцептронот каде излезните сигнали се 1 или -1. Притоа, сигналот врши пропагаци?а кон напред (forward propagation), доа?а??и на влезот на перцептронот, каде се врши пресметка и се извршува активациската функци?а, за на кра?от да биде произведен излезен сигнал.[3]

w1 × x1 + w2 × x2 + wn × xn > θ (излезен сингал = 1)
w1 × x1 + w2 × x2 + wn × xnθ (излезен сингал = 0)

Перцептрон на едно ниво

[уреди | уреди извор]

Перцептроните се на?едноставните видови на еднонасочни мрежи. На?раните видови на невронски мрежи се мрежи со перцептрон на едно ниво, ко? се состои од еден сло? на излезни ?азли, влезовите одат директно во излезите преку сери?а на врски со тежини. Сумата на производите на тежините и влезовите се пресметува во секо? ?азол, и доколку вредноста е над неко? праг (вообичаено 0), ?азолот се активира и зазема активирана вредност (вообичаено, 1), спротивно зема деактивирана вредност (типично -1). Неврони со ваков вид на активациска функци?а се нарекуваат МекКалок-Питс неврони или прагови-неврони. Перцептрон може да се создаде со користе?е на било кои вредности за активирана и декативирана вредност, сè додека вредноста за прагот лежи поме?у овие две вредности. Пове?ето перцептрони имаат излези 1 или -1 со праг 0, и има некакви докази дека таквите мрежи може да се обучуваат побрзо од мрежите создадени со други вредности за активаци?а и деактиваци?а. Перцептроните може да се обучуваат со едноставен алгоритам за уче?е што често се нарекува и делта-правило. Алгоритмот ги пресметува грешките поме?у пресметаниот излез и излезот од примеркот на податоци и го користи тоа знае?е за да ги постави пондерите, со тоа имплементира??и форма на нивно постепено опа?а?е.

Покра? влезните сигнали кои потекнуваат од сво?ствата на податочното множество коригирани со одреден пондер, перцептронот на?често добива и уште еден влезен сигнал, познат како ?пристрасност“ (bias). То? типично се третира само како уште еден влезен сигнал и на то? начин може да се додаде во сумата на влезни сигнали.[2][7] Перцептронот обично се користи при класификаци?а на класи што може линеарно да се разделат (linearly separable) и на?често се употребува при бинарна класификаци?а, во ко?а излезниот сигнал припа?а на една од две можни класи. Во случа? кога вредностите припа?аат на една од двете класи кои се линеарно раздво?ливи, тие физички можат да бидат одвоени со права лини?а. Во случаите каде посто?ат бесконечно многу прави кои физички можат да ги одво?ат класите, ко?а било права ко?а целосно ги одво?ува (perfect separation) е доволна за решава?е на проблемот на класификаци?а.[8] Активациските функции ги преведуваат влезните сигнали во излезни сигнали и притоа во процесот користат одреден праг на активаци?а (threshold). Ка? перцептронот се користат четири типови активациски функции: unit step (threshold), piecewise linear, сигмоид и Гаусова функци?а.[3]

Тренира?е (уче?е) ка? перцептронот

[уреди | уреди извор]

Доколку посто?ат n атрибути што опишуваат одреден ентитет од податочното множество наменето за уче?е, потребно е да се прона?дат n+1 пондери (n пондери + пристрасност) кои ?е бидат коефициенти во равенката на права, рамнина или хипер-рамнина ко?а ги разделува ентитетите според класите на кои тие припа?аат. При тренира?ето на перцептронот треба да се прона?де бараната права/рамнина/хипер-рамнина ко?а точно ?е подели две класи, на то? начин што се вршиме приспособува?е на пондерите и на пристрасноста. Перцептронот се тренира за да даде одговор на секо? влезен вектор (сигнал) соодветен со посакуваната вредност од 0 или 1. Податочното множество кое се користи за тренинг на?често има пове?е атрибути за дадениот случа?, така што влезниот сигнал може да се гледа и како вектор ко? претставува еднодимензионална низа. Доколку такво решение постои (доколку податоците се линеарно сепарабилни), теори?ата за перцептронот вели дека тоа ?е биде прона?дено за конечен временски период.[3][7][8]

Уче?ето (тренира?ето) на перцептронот се спроведува според следниов алгоритам:[3]

  • Иници?ализаци?а на сите пондери (пондерите првично се поставуваат на вредност 0 или пак на друга мала вредност, по случаен избор).
  • Избор на стапката на уче?е m (learning rate), на?често неко? мал бро? поме?у 0 и 1.
  • Извршува? ги следниве чекори сè додека условот за завршува?е на тренингот не е исполнет (прона?дена е бараната права/рамнина/хипер-рамнина и грешката изнесува 0, или пак предефинираното време одредено за тренинг е истечено).
  • Помини ги сите случаи од податочното множество за тренинг (x, actual), каде x е вектор составен од сите атрибути на дадената инстанци?а, а actual е вистинскиот излез (класа) на дадениот случа? ко? е познат од податочното множество за тренинг
  • Пресмета? го излезот при активаци?а - предвидениот излез, ко? е функци?а од пондерираниот збир на влезни сигнали x: output = f(w'x)
  • Примени го правилото за уче?е: 1) На?ди ?а грешката (error = output - actual); 2) Промени ?а пристрасноста: b = b + m*error; 3) За сите i влезни сигнали: w(i) = w(i) + error*m*x(i)

Притоа, едно целосно изминува?е (итераци?а) на сите случаи од податочното множество за тренинг се нарекува ?епоха“.

Според тоа, постапката за тренира?е на перцептронот е таква што векторите од податочното множество за тренинг треба да бидат предадени на влезот на перцептронот, последователно еден по еден. Доколку сигналот ко? се добива на излезот од перцептронот е точен (предвидениот резултат е ист со познатиот резултат од тренинг множеството), тогаш не се прават никакви промени. Во спротивно се применува ?правилото за уче?е на перцептронот“ кое врши исправка на пондерите и на пристрасноста.[3] Тренингот е завршен кога за сите тренинг-вектори перцептронот ?е изврши точна класификаци?а (нема да се по?ави грешка), или пак ?е истече времето (бро?от на епохи) предвидено за тренинг. Кога е извршен тренингот на перцептронот, доколку на влезот се донесе тренинг-вектор (вектор од податочното множество за тренинг), тогаш на излезот ?е биде извршена точна класификаци?а. Доколку, пак, се донесе нов вектор на влезот, ко? не е дел од податочното множество за тренинг, мрежата се стреми кон тоа да изврши генерализаци?а, одговара??и со излезен сигнал, сличен на излезните сигнали добиени од тренинг-векторите кои се блиски со новиот, непознат вектор.[8]

Перцептрон на пове?е нивоа

[уреди | уреди извор]

Оваа класа на мрежи се состои од пове?е слоеви на пресметковни единки, вообичаено поврзани со еднонасочни врски. Секо? неврон во еден сло? има директна врска со неврон во следниот сло?. Во многу апликации, единките на овие мрежи применуваат сигмоидна функци?а како активациска функци?а. Универзалната апроксимативна теорема за невронски мрежи тврди дека секо?а функци?а ко?а може да мапира R -> R може да биде приближно пресметана со перцептрон на пове?е нивоа со само еден скриен сло?. Ово? резултат се однесува само на одредени класи на активациски функции, како на пример, за сигмоидните функции.

Едносло?ниот перцептрон (single layer perceptron, SLP) е линеарен класификатор. Оттука, ако класите не се линеарно сепарабилни, процесот на уче?е никогаш нема да достигне момент каде сите случаи се соодветно класифицирани. Во то? случа?, доколку не постои услов за прекинува?е на процесот на уче?е (ограничува?е на бро?от на итерациите), алгоритамот на перцептронот ?е се извршува бескра?но, биде??и не постои решение на проблемот. На?познат проблем ко? ?а прикажува неможноста на перцептронот да решава проблеми каде се сретнуваат класи кои не се линеарно сепарабилни, е проблемот на XOR. Имено, логичката XOR-порта на излезот ?е даде сигнал 1 само ако двата влезни сигнали се ме?усебно различни (0 и 1 или 1 и 0). Во спротивно (ако на влезот доа?ааат сигнали 0 и 0 или 1 и 1), излезниот сигнал на XOR-портата ?е биде 0. Тогаш е невозможно да се постави права ко?а ?е ги одвои случаите според класата на ко?а припа?аат.[9] За решава?е на проблемите од типот на XOR може да се искористи алгоритамот на пове?еслоен перцептрон (multi-layer perceptron) со пропагаци?а на грешка кон назад (back-propagation).

Пове?есло?ниот перцептрон ?а има истата структура како и едносло?ниот перцептрон, со таа разлика што има еден или пове?е скриени слоеви. Влезниот сло? е составен од сигнали кои доа?аат од податочното множество, додека пак секо? ?азел од скриениот и излезниот сло? претставува посебен перцептрон. Карактеристично тука е што како активациска функци?а (activation/transformation function) се користи сигмоидната функци?а, наместо threshold-функци?ата.[10][11] Процесот на активаци?а ка? секо? ?азол (перцептрон) е истиот како ка? едносло?ниот перцептрон, т.е. се користат влезните сигнали и нивните пондери за да се пресмета пондерираната сума ко?а се предава на активациската функци?а. Истото се случува и ка? ?азлите од скриениот сло?, кои добиваат сигнали од влезниот сло?, додека пак излезните сигнали кои ги произведува скриениот сло? претставуваат влезни сигнали за ?азлите (?азолот) на излезниот сло?.[9][12]

Пропагаци?а кон назад (Backpropagation)

[уреди | уреди извор]

Ка? назадното патува?е се користи грешката при излезот на излезниот сло? (output error – разликата поме?у предвидениот излез и саканиот излез), за да се поправи грешката на пондерите на влезните сигнали ка? излезниот сло?. Исправката се врши на пондерите на сигналите кои доа?аат од скриениот сло? и влегуваат во излезниот сло?. Истата постапка се извршува понатаму ка? секо? од ?азлите од скриениот сло?, така што се пресметува грешката при излез и таа се користи за поправа?е на пондерите кои ги добиваат влезните сигнали. На то? начин, грешката шири низ слоевите движе??и се од излезниот сло? кон влезниот сло?. Сето тоа е овозможено со употребата на сигмоидната функци?а, како нелинеарна активациска функци?а ко?а е диференци?абилна.[13]

Уче?е ка? невронските мрежи

[уреди | уреди извор]

Уче?ето ка? невронските мрежи вклучува модификаци?а на тежините на врските според некое изменето правило. Главната иде?а е тоа што ако ?азлите ? и k се активни истовремено, нивната врска о?акнува. Уче?ето претставува пресликува?е од Х во Y и модификаци?а на врските. Посто?ат два начина на модификаци?а на врските во невронските мрежи:

  • уче?е под надзор / самонадзор - со користе?е на претходното знае?е на проблемскиот домен, се поставуваат тежините на врските.
  • уче?е без надзор / самоорганизаци?а - со обука на мрежата, таа да си ги менува врските според правилото на уче?е кое се спроведува од неко? примерок на дадени решени?а со влезови/излези од мрежата. Има сопствено претставува?е, нема претходно зададено знае?е т.е. започнува со случа?ни вредности за тежините на врските.

Повратни мрежи

[уреди | уреди извор]

Ка? повратните мрежи сре?аваме дводимензионален податочен тек (?амки).

?орданова мрежа

[уреди | уреди извор]

Едноставната повратна мрежа ко?а е вари?аци?а на перцептронот на пове?е нивоа се нарекува ?орданова мрежа. Трисло?на мрежа се добива со додава?е на повратни врски од излезните единки до т.н. состо?бени единки со фиксирана вредност на тежините на 1. Скриениот сло? е поврзан со врските од овие единки. При секо? чекор влезот се пренесува преку стандарден еднонасолен начин, и потоа се применува правилото за уче?е со обратно раширува?е (backpropagation). Фиксните повратни врски резултираат со одржува?е на копи?а од вредностите на претходните вредности од скриениот сло?. Ка? потполно повратна мрежа, секо? неврон добива влез од секо? друг неврон во мрежата. Овие мрежи не се ангажирани во слоеви. Вообичаено само подмножество на неврони добиваат надворешни влезови, а друго множество на неврони го репортира излезот надвор од мрежата и го вра?а кон сите неврони. Овие влезови и излези ?а изведуваат функци?ата на влезни и излезни слоеви ка? еднонасочните.

Елманова мрежа

[уреди | уреди извор]

Ка? Елмановата мрежа повратните врски се решаваат исклучиво во скриените слоеви.

Хопфилдова мрежа

[уреди | уреди извор]

Хопфилдова мрежа е комплетно поврзана мрежа од N ?азли, каде сите ?азли се истовремено и влезни и излзени.

Библиографи?а

[уреди | уреди извор]
  • Проф. д-р Владимир Тра?кови?: ?Експертни системи“, скрипта. ФЕИТ, УКИМ, Скоп?е, 2010.
  • Bar-Yam, Yaneer (2003). Dynamics of Complex Systems, Chapter 2 (PDF). Архивирано од изворникот (PDF) на 2025-08-14. Посетено на 2025-08-14.
  • Bar-Yam, Yaneer (2003). Dynamics of Complex Systems, Chapter 3 (PDF).
  • Bar-Yam, Yaneer (2005). Making Things Work. Please see Chapter 3
  • Bhadeshia H. K. D. H. (1999). ?Neural Networks in Materials Science“ (PDF). ISIJ International. 39 (10): 966–979. doi:10.2355/isijinternational.39.966. Архивирано од изворникот (PDF) на 2025-08-14. Посетено на 2025-08-14.
  • Bishop, C.M. (1995) Neural Networks for Pattern Recognition, Oxford: Oxford University Press. ISBN 0-19-853849-9 (hardback) or ISBN 0-19-853864-2 (paperback)
  • Cybenko, G.V. (1989). Approximation by Superpositions of a Sigmoidal function, Mathematics of Control, Signals, and Systems, Vol. 2 pp. 303–314. electronic version Архивирано на 7 септември 2012 г.
  • Duda, R.O., Hart, P.E., Stork, D.G. (2001) Pattern classification (2nd edition), Wiley, ISBN 0-471-05669-3
  • Egmont-Petersen, M., de Ridder, D., Handels, H. (2002). ?Image processing with neural networks - a review“. Pattern Recognition. 35 (10): 2279–2301. doi:10.1016/S0031-3203(01)00178-9.CS1-одржува?е: пове?е ими?а: список на автори (link)
  • Gurney, K. (1997) An Introduction to Neural Networks London: Routledge. ISBN 1-85728-673-1 (hardback) or ISBN 1-85728-503-4 (paperback)
  • Haykin, S. (1999) Neural Networks: A Comprehensive Foundation, Prentice Hall, ISBN 0-13-273350-1
  • Fahlman, S, Lebiere, C (1991). The Cascade-Correlation Learning Architecture, created for National Science Foundation, Contract Number EET-8716324, and Defense Advanced Research Projects Agency (DOD), ARPA Order No. 4976 under Contract F33615-87-C-1499. electronic version Архивирано на 3 ма? 2013 г.
  • Hertz, J., Palmer, R.G., Krogh. A.S. (1990) Introduction to the theory of neural computation, Perseus Books. ISBN 0-201-51560-1
  • Lawrence, Jeanette (1994) Introduction to Neural Networks, California Scientific Software Press. ISBN 1-883157-00-5
  • Masters, Timothy (1994) Signal and Image Processing with Neural Networks, John Wiley & Sons, Inc. ISBN 0-471-04963-8
  • Ness, Erik. 2005. SPIDA-Web Архивирано на 11 декември 2007 г.. Conservation in Practice 6(1):35-36. On the use of artificial neural networks in species taxonomy.
  • Ripley, Brian D. (1996) Pattern Recognition and Neural Networks, Cambridge
  • Siegelmann, H.T. and Sontag, E.D. (1994). Analog computation via neural networks, Theoretical Computer Science, v. 131, no. 2, pp. 331–360. electronic version Архивирано на 10 ноември 2011 г.
  • Sergios Theodoridis, Konstantinos Koutroumbas (2009) "Pattern Recognition", 4th Edition, Academic Press, ISBN 978-1-59749-272-0.
  • Smith, Murray (1993) Neural Networks for Statistical Modeling, Van Nostrand Reinhold, ISBN 0-442-01310-8
  • Wasserman, Philip (1993) Advanced Methods in Neural Computing, Van Nostrand Reinhold, ISBN 0-442-00461-3
  1. Shah, Hardik. ?A Full Overview of Artificial Neural Networks (ANN)“. learn.g2.com (англиски). Посетено на 2025-08-14.
  2. 2,0 2,1 C. M. Bishop, Neural networks for pattern recognition. Oxford University Press, 1995.
  3. 3,0 3,1 3,2 3,3 3,4 3,5 I. H. Witten, E. Frank, Data Mining: Practical machine learning tools and techniques. Morgan Kaufmann, 2005.
  4. Пове?екратна лиеарна регреси?а и вештачки невронски мрежи ка? перовскитите Архивирано на 31 октомври 2020 г. - Институт за хеми?а, ПМФ
  5. K. Hornik, M, Stinchcombe, H. White (1989), ?Multilayer feedforward networks are universal approximators“. Neural networks, 2(5), стр. 359-366.
  6. R. S. Michalski, J. G. Carbonell, T. M. Mitchell, (Eds.), Machine learning: An artificial intelligence approach. Springer Science & Business Media, 2013.
  7. 7,0 7,1 J. Han, J. M. Kamber, J. Pei, Data mining: concepts and techniques: concepts and techniques. Elsevier, 2011.
  8. 8,0 8,1 8,2 C. M. Bishop, Pattern recognition and machine learning. Springer, 2006.
  9. 9,0 9,1 I. H. Witten and E. Frank, Data Mining: Practical machine learning tools and techniques. Morgan Kaufmann, 2005.
  10. R. S. Michalski, J. G. Carbonell, and T. M. Mitchell (Eds.), Machine learning: An artificial intelligence approach. Springer Science & Business Media, 2013.
  11. S. Russell, and P. Norvig, Artificial intelligence: a modern approach, 1995.
  12. K. Hornik, M. Stinchcombe, and H. White, ?Multilayer feedforward networks are universal approximators“, Neural networks, 2(5), 1989, pp. 359-366.
  13. J. Han, M. Kamber, and J. Pei, Data mining: concepts and techniques: concepts and techniques. Elsevier, 2011.
a型血与o型血生的孩子是什么血型 1990年是什么年 kiko是什么意思 染发有什么危害 非经期出血是什么原因
白茶什么样的好 为什么打喷嚏 大咖是什么意思 芒果和什么榨汁好喝 国五行属什么
什么是素质 鼻子痒是什么原因 o血型的人有什么特点 怀孕初期怕冷是什么原因 鸡眼挂什么科
梦见吃油饼是什么意思 纳豆是什么东西 螯合是什么意思 柳树像什么 女人吃桑葚有什么好处
哮喘吃什么药好hcv8jop3ns7r.cn 牙龈炎吃什么药最有效hcv9jop5ns3r.cn 感冒是什么症状hcv8jop6ns5r.cn 什么是gdphcv8jop8ns9r.cn 避孕套什么牌子好hcv9jop4ns1r.cn
梦见老公回来了是什么征兆hcv9jop7ns2r.cn 云裳是什么意思hcv8jop4ns6r.cn 性病是什么症状hcv9jop0ns1r.cn 人体最大的排毒器官是什么fenrenren.com 火龙果不能和什么一起吃hcv7jop7ns0r.cn
脖子长痘是什么原因引起的hcv8jop5ns2r.cn 打点滴是什么意思hcv7jop6ns5r.cn 危如累卵是什么意思hcv8jop0ns8r.cn 温碧泉属于什么档次hcv9jop0ns1r.cn 粗口是什么意思hcv9jop4ns0r.cn
什么水果减肥最有效hcv9jop0ns0r.cn 吃什么有奶水hcv8jop4ns0r.cn 修身养性是什么意思ff14chat.com 9月14号什么星座hcv8jop9ns4r.cn 366是什么意思hcv7jop6ns9r.cn
百度