Ką išmokau iš savo „Udacity“ giluminio mokymosi kurso („Sigmoid Function Vs SoftMax Function“)

Prieš savaitę nusprendžiau gilintis į gilų mokymąsi ir nuo to laiko kaupiau naudingus išteklius ir pradėjau mokytis iš jų. Pirmasis buvo „Udacity“ giluminis mokymasis „Google“, kurį tiesiog pagriebiau, nes jis buvo nemokamas.

Mano pirmoji pamoka buvo nuo mašininio mokymosi iki gilaus mokymosi.

Toje pamokoje radau daug naudingų temų ir noriu jas apibendrinti šioje straipsnių serijoje:

Štai apie ką kalbėsiu:

1. „Sigmoid Function Vs SoftMax Function“ (Šis straipsnis)
2. RMSE (šaknies vidurkio klaida) ir kryžminė entropija (kita)

Pradėkime nuo pirmojo:

„Sigmoid Function Vs SoftMax Function“

Sigmoido funkcija:

Tiems, kurie yra susipažinę su collge matematika ir kai kuriais mašinų mokymosi kursais, esu tikras, kad esate girdėję apie sigmoidinę funkciją. Tai apibrėžta taip:

„Sigmoid“ funkcija užima bet kurį realųjį skaičių diapazoną ir grąžina išvesties vertę, kuri yra nuo 0 iki 1.

Čia galite pamatyti šį jo vaizdavimo paveikslėlį ir jo apibrėžimą:

Jis dažnai naudojamas logistinei regresijai dvejetainėje klasifikacijoje ir kaip aktyvavimo funkcija neuroniniuose tinkluose.

Sigmoidinės funkcijos išvestis gali būti interpretuojama kaip tikimybė.
Ši funkcija gali būti naudojama daugeliui užduočių realiame gyvenime: klasifikuoti šlamšto laiškus, klasifikuoti bankų operacijas ir pan.

Šiame kvoros klausime galite sužinoti daugiau apie sigmoid funkciją.

Giluminio mokymosi kursuose girdėjau apie „softmax“ funkciją, ar ji sigmoidinė funkcija yra tokia pati?

„Softmax“ funkcija

Anksčiau negirdėjau apie „softmax“ funkciją ir pirmą kartą apie tai išgirdęs buvau šiek tiek sumišęs:

Kas yra „softmax“ funkcija?

„Softmax“ funkcija (arba multinominė logistinė regresija) yra sigmoidinės funkcijos apibendrinimas tuo atveju, kai norime tvarkyti kelias klases (kelių klasių klasifikacija).

Čia yra matematinė „softmax“ funkcijos formulė:

„softmax“ funkcija

„Softmax“ funkcija gali paimti bet kokius balus (masyvą ar vektorių) ir grąžinti tinkamas tikimybes, ji bus didelė, kai balai yra dideli. Funkcijos „softmax“ grąžintų verčių suma visada lygi 1.

Įrodyta, kad sigmoidas yra ypatingas „softmax“ atvejis, kai i = 2

„Softmax“ funkcija dažnai naudojama giluminiame mokymesi, kai dirbame su neuroniniais tinklais, ir ji gali būti naudojama vaizdams klasifikuoti.

Šiandien viskas, tikiuosi, sužinosite ką nors šiame straipsnyje, aš rytoj ateisiu su kažkuo kitu apie tai, ko išmokau.

Tiesą sakant, nemoku rašyti, bet privalau tai daryti, nes noriu įsisavinti anglų kalbą ir patobulinti savo rašymo įgūdžius.

Nesivaržykite pateikti atsiliepimų.

Ačiū pagrindiniams nariams: Ikechi Michael, Osioke Itseuwa ir Yomi už jų naudingas pataisas.

Daugiau apie aukščiau pateiktas temas galite sužinoti žemiau pateiktose nuorodose:

  • http://dataaspirant.com/2017/03/07/difference-between-softmax-function-and-sigmoid-function/
  • https://www.quora.com/What-is-the-sigmoid-function-and-what-is-its-use-in-in-machine-learnings-neural-networks-How-about-the-sigmoid-derivative- funkcija
  • https://www.kdnuggets.com/2016/07/softmax-regression-related-logistic-regression.html