lernilo

Klasifiko de Algoritmoj pri Maŝina Lernado: Lineara Regreso, Klasifiko kaj Klasifikado

Maŝina Lernado havas grandajn similecojn kun matematika optimumigo, kiu disponigas metodojn, teoriojn kaj aplikajn domenojn. 

Maŝina lernado estas formulita kiel "minimumigaj problemoj" de perdo-funkcio kontraŭ donita aro de ekzemploj (trejnada aro). Ĉi tiu ĉefaĵo esprimas la discrepancon inter la valoroj antaŭdiritaj de la modelo trejnata kaj la atendataj valoroj por ĉiu ekzempla petskribo. 

La fina celo estas instrui la modelon la kapablecon antaŭdiri ĝuste laŭ aro da kazoj ne ĉeestantaj en la trejnadaro.

Metodo laŭ kiu eblas distingi malsamajn kategoriojn de algoritmo estas la speco de eligo atendata de certa sistemo de maŝinlernado

Inter la ĉefaj kategorioj ni trovas:

  • La klasifiko: la enigaĵoj dividiĝas en du aŭ pli da klasoj kaj la lernada sistemo devas produkti modelan kapablon asigni unu aŭ pli da klasoj inter tiuj disponeblaj.Ĉi tiuj specoj de taskoj estas tipe traktataj per kontrolitaj lernadaj teknikoj. 

    Ekzemplo de klasifiko estas la atribuo de unu aŭ pluraj etikedoj al bildo bazita sur la celoj aŭ subjektoj en ĝi;

  • La regreso: koncepte simila al klasifiko kun la diferenco, ke la eligo havas kontinuan kaj nediskretan domajnon.Ĝi estas tipe administrita per kontrolita lernado. 

    Ekzemplo de regreso estas la takso de la profundo de sceno el ties reprezento en formo de kolora bildo. 

    Fakte, la regado de la eligo en demando estas preskaŭ senfina, kaj ne limigite al certa diskreta aro de eblecoj;

  • Il racimo: kie ĝi estas aro de datumoj estas dividita en grupojn, kiuj tamen male al la klasifiko estas nekonataj a priori.La mem naturo de la problemoj apartenantaj al ĉi tiu kategorio igas ilin nesufiĉe lerni taskojn.
Simpla lineara regresmodelo

Lineara regreso estas amvaste uzata modelo uzata por taksi realajn valorojn kiel:

  • kosto de domoj,
  • nombro de vokoj,
  • totalaj vendoj po persono,

kaj sekvas la kriterio de kontinuaj variabloj:

  • kvadrataj metroj,
  • abono al aktuala konto,
  • edukado de la persono

En lineara regreso, rilato inter sendependaj variabloj kaj dependaj variabloj estas sekvita tra linio kiu kutime reprezentas la rilaton inter la du variabloj.

La taŭga linio estas konata kiel la regresa linio kaj estas reprezentita per lineara ekvacio de la tipo Y = a * X + b.

La formulo baziĝas sur interpolado de datumoj por asocii du aŭ pli da trajtoj inter si. Kiam vi donas al la algoritmo enigaĵon, la regreso redonas la alian karakterizaĵon.

Multobla lineara regresmodelo

Kiam ni havas pli ol unu sendependan variablon, tiam ni parolas pri multobla lineara regreso, alprenante modelon kiel la sekvan:


y=b0 + b1x1 + b2x2 + ... + Bnxn

  • y estas la respondo al la valoroj, te ĝi reprezentas la rezulton antaŭviditan de la modelo;
  • b0 estas la interkapto, tio estas la valoro de y kiam xi ili ĉiuj egalas al 0;
  • la unua trajto b1 estas la koeficiento de x1;
  • tamen alia ĉefaĵo bn estas la koeficiento de xn;
  • x1,x2, ..., Xn estas la sendependaj variabloj de la modelo.

Esence la ekvacio klarigas la rilaton inter kontinua dependa variablo (y) kaj du aŭ pli sendependaj variabloj (x1, x2, x3 ...). 

Ekzemple, se ni volis taksi la emision de CO2 de aŭto (dependa variablo y) konsiderante la potencon de la motoro, la nombron da cilindroj kaj konsumon de brulaĵo. Ĉi tiuj lastaj faktoroj estas la sendependaj variabloj x1, x2 kaj x3. La konstantoj bi estas reelaj nombroj kaj estas nomataj laŭ la taksitaj regresaj koeficientoj de la modelo.Y estas la kontinua dependa variablo, t.e. estante la sumo de b0, b1 x1, b2 x2, ktp. y estos vera nombro.

Analizo de multoblaj regresoj estas metodo uzata por identigi la efikon, kiun sendependaj variabloj havas sur dependa variablo.

Kompreni kiel la dependaj variabloj ŝanĝiĝas kiel la sendependaj variabloj permesas antaŭdiri la efikojn aŭ efikojn de ŝanĝoj en realaj situacioj.

Uzante multnombran linian regreson eblas kompreni kiel sangopremo ŝanĝiĝas, kiam la korpa mas-indico ŝanĝiĝas konsiderante faktorojn kiel aĝo, sekso, ktp, tiel supozante kio povus okazi.

Kun multobla regreso ni povas akiri taksojn pri prezoj, kiel la estonta tendenco de oleo aŭ oro.

Fine, multobla lineara regreso spertas pli grandan intereson en la kampo de maŝina lernado kaj artefarita inteligenteco, ĉar ĝi ebligas akiri plenumajn lernmodelojn eĉ en la kazo de granda nombro de registroj analizeblaj.

Loĝista Regresa Modelo

Logistika regreso estas statistika ilo, kiu celas modeligi binoman rezulton kun unu aŭ pluraj klarigaj variabloj.

Ĝi estas ĝenerale uzata por binaraj problemoj, kie estas nur du klasoj, ekzemple Jes aŭ Ne, 0 aŭ 1, vira aŭ virina ktp ...

Tiamaniere eblas priskribi la datumojn kaj klarigi la rilaton inter duuma dependa variablo kaj unu aŭ pluraj nominalaj aŭ ordinaraj sendependaj variabloj.

La rezulto estas determinita danke al la uzo de loĝistika funkcio, kiu taksas probablecon kaj poste defifinas la plej proksiman klason (pozitivan aŭ negativan) al la akirita probabla valoro.

Ni povas konsideri loĝistikan regreson kiel metodon por klasifiki la familion gvatita lernado algoritmoj.

Uzante statistikajn metodojn, loĝistika regreso permesas generi rezulton, kiu fakte reprezentas probablecon ke donita eniga valoro apartenas al donita klaso.

En binomiaj logistikaj regresaj problemoj, la probablo ke la eligo apartenas al unu klaso estos P, dum ke ĝi apartenas al la alia klaso 1-P (kie P estas nombro inter 0 kaj 1 ĉar ĝi esprimas probablon).

La binoma logistika regreso funkcias bone en ĉiuj tiuj kazoj, en kiuj la variablo, kiun ni provas antaŭdiri, estas duuma, tio estas nur kunpreni du valorojn: la valoron 1, kiu reprezentas la pozitivan klason, aŭ la valoron 0, kiu reprezentas la negativan klason.

Ekzemploj de problemoj, kiuj povas esti solvitaj per loĝistika regreso, estas:

  • retpoŝto estas spama aŭ ne;
  • interreta aĉeto estas fraŭda aŭ ne, taksante la aĉetkondiĉojn;
  • paciento havas frakturon taksante la radiojn.

Kun loĝistika regreso ni povas fari prognozan analizon, mezurante la rilaton inter tio, kion ni volas antaŭdiri (dependa variablo) kaj unu aŭ pluraj sendependaj variabloj, t.e. la trajtoj. Probabla takso estas farita per loĝistika funkcio.

La probabloj poste transformiĝas al binaraj valoroj, kaj por realigi la antaŭdiron, ĉi tiu rezulto estas asignita al la klaso al kiu ĝi apartenas, surbaze de ĉu ĝi estas proksima aŭ ne al la klaso mem.

Ekzemple, se la apliko de la loĝistika funkcio redonas 0,85, tiam ĝi signifas, ke la enigo generis pozitivan klason atribuante ĝin al klaso 1. Male, se ĝi akiris valoron kiel 0,4 aŭ pli ĝenerale <0,5 ..

Informilo pri novigo
Ne maltrafu la plej gravajn novaĵojn pri novigado. Registriĝi por ricevi ilin retpoŝte.

Logistika regreso uzas la loĝistikan funkcion por taksi la klasifikon de la enigaj valoroj.

La logistika funkcio, ankaŭ nomata sigmoido, estas kurbo kapabla preni ĉian nombron de reala valoro kaj mapi ĝin al valoro inter 0 kaj 1, ekskludante ekstremojn. La funkcio estas:

kie ĝi estas:

  • e: bazo de naturaj logaritmoj (numero de Euler, aŭ excel-funkcio exp ())
  • b0 + b1 * x: estas la efektiva nombra valoro, kiun vi volas transformi.

Reprezentado uzita por loĝistika regreso

Logistika regreso uzas ekvacion kiel reprezentadon, same kiel lineara regreso

La enigaj valoroj (x) estas lineare kombinitaj uzante pezojn aŭ koeficientajn valorojn, por antaŭdiri elirajn valorojn (y). Ŝlosila diferenco de lineara regreso estas, ke la modeligita elira valoro estas binara valoro (0 aŭ 1) prefere ol nombra valoro.

Sube estas ekzemplo de logistika regresa ekvacio:

y = e^(b0 + b1 * x) / (1 + e^(b0 + b1 * x))

Kolombo:

  • y estas la dependa variablo, t.e. la antaŭvidita valoro;
  • b0 estas la termino de polarizo aŭ interkapto;
  • b1 estas la koeficiento por la ununura eniga valoro (x).

Ĉiu kolumno en la enigaj datumoj havas asocian b-koeficienton (konstantan realan valoron) kiu devas esti lernita de la trejnaj datumoj.

La efektiva reprezentado de la modelo, kiun vi stokus en memoro aŭ dosiero, estas la koeficientoj en la ekvacio (la valoro beta aŭ b).

Loĝista regreso antaŭdiras probablojn (teknika gamo)

Loĝista regreso modeligas la probablecon de la defaŭlta klaso.

Kiel ekzemplo, ni supozu, ke ni modeligas la sekson de homoj kiel masklo aŭ ino de sia alteco, la unua klaso povus esti vira, kaj la logistika regresa modelo povus esti skribita kiel la probablo de esti vira donita altecon de homo, aŭ pli. formale:

P (sekso = masklo | alteco)

Skribite alimaniere, ni modeligas la probablecon ke enigaĵo (X) apartenas al la klaso predefifinita (Y = 1), ni povas skribi ĝin kiel:

P(X) = P(Y = 1 | X)

La prognoza antaŭdiro devas esti transformita al binaraj valoroj (0 aŭ 1) por efektive fari probablecon.

Loĝista regreso estas lineara metodo, sed prognozoj transformiĝas uzante la loĝistikan funkcion. La efiko de tio estas, ke ni ne plu povas kompreni prognozojn kiel lineara kombinaĵo de enigaĵoj kiel ni povas kun lineara regreso, ekzemple, daŭrigante de supre, la modelo povas esprimi kiel:

p(X) = e ^ (b0 + b1 * X) / (1 + e ^ (b0 + b1 * X))

Nun ni povas reverti la ekvacion kiel sekvas. Por revertigi ĝin, ni povas procedi forigante la e-on unuflanke aldonante naturan logaritmon aliflanke.

ln (p (X) / 1 - p (X)) = b0 + b1 * X

Tiamaniere ni akiras la fakton, ke la komputado de la eligo dekstre estas lineara denove (same kiel lineara regreso), kaj la enigo maldekstre estas logaritmo de la probablo de la apriora klaso.

La probabloj estas kalkulitaj kiel rilatumo de la probablo de la evento dividita de la probablo de neniu evento, t.e. 0,8 / (1-0,8) kies rezulto estas 4. Do ni povus anstataŭe skribi:

ln (probableco) = b0 + b1 * X

Ĉar probabloj estas log-transformitaj, ni nomas ĉi-maldekstran log-odds aŭ probit.

Ni povas redoni la eksponenton dekstre kaj skribi ĝin kiel:

probablo = e ^ (b0 + b1 * X)

Ĉio ĉi helpas nin kompreni, ke efektive la modelo estas ankoraŭ lineara kombinaĵo de la enigaĵoj, sed ke ĉi tiu lineara kombinaĵo rilatas al la logprobabloj de la antaŭklaso.definita.

Lernado de la logistika regresmodelo

La koeficientoj (beta aŭ b valoroj) de la logistika regresiga algoritmo estas taksitaj en la lernada fazo. Por fari tion, ni uzas maksimuman verŝajnan taksadon.

Maksimuma verŝajna takso estas lernalgoritmo uzata de pluraj maŝinlernado-algoritmoj. La koeficientoj rezultiĝantaj el la modelo antaŭdiras valoron tre proksima al 1 (ekz. masklo) por la antaŭlerneja klasodefinita kaj valoro tre proksima al 0 (ekz. ina) por la alia klaso. Maksimuma verŝajneco por loĝistika regreso estas procedo trovi valorojn por koeficientoj (Beta aŭ ob-valoroj) kiuj minimumigas la eraron en la probabloj antaŭdiritaj de la modelo rilate al tiuj en la datumoj (ekz. probableco 1 se la datumoj estas la primara klaso) .

Ni uzos minimuman algoritmon por optimumigi la plej bonajn koeficientajn valorojn por la trejnaj datumoj. Ĉi tio ofte efektivigas praktike uzante efikan nombran optimuman algoritmon.

Ercole Palmeri


Informilo pri novigo
Ne maltrafu la plej gravajn novaĵojn pri novigado. Registriĝi por ricevi ilin retpoŝte.

Lastaj artikoloj

Eldonistoj kaj OpenAI subskribas interkonsentojn por reguligi la fluon de informoj prilaboritaj de Artefarita Inteligenteco

Pasintlunde, la Financial Times anoncis interkonsenton kun OpenAI. FT licencas sian mondklasan ĵurnalismon...

30 aprilo 2024

Interretaj Pagoj: Jen Kiel Fluaj Servoj Faras Vin Pagi Eterne

Milionoj da homoj pagas por streaming-servoj, pagante monatajn abonkotizojn. Estas komuna opinio, ke vi...

29 aprilo 2024

Veeam havas la plej ampleksan subtenon por ransomware, de protekto ĝis respondo kaj reakiro

Coveware de Veeam daŭre liveros servojn de respondaj incidentoj pri ciberĉantaĝo. Coveware ofertos krimmedicinajn kaj solvajn kapablojn...

23 aprilo 2024

Verda kaj Cifereca Revolucio: Kiel Prognoza Prizorgado Transformas la Petrolo kaj Gasa Industrio

Prognoza prizorgado revolucias la petrolon kaj gasan sektoron, kun noviga kaj iniciatema aliro al plantadministrado...

22 aprilo 2024