Veze, linkovi
Kompjuter biblioteka
Korpa

Preporučujemo

Mašinsko učenje i veštačka inteligencija: 30 osnovnih pitanja i odgovora

Mašinsko učenje i veštačka inteligencija: 30 osnovnih pitanja i odgovora

Popust cena: 1700 rsd

Python mašinsko učenje, prevod trećeg izdanja

Python mašinsko učenje, prevod trećeg izdanja

Popust cena: 2600 rsd

Veštačka inteligencija i mašinsko učenje 30 pitanja i odgovora drugačiji pogled

Poglavlje 1: Ugrađeni vektori, latentni prostor i reprezentacije

1. Šta su ugrađeni vektori?
• Ugrađeni vektori su numeričke reprezentacije objekata u prostoru manje dimenzije koje
zadržavaju semantičke karakteristike originalnih podataka.
2. Kako se formira latentni prostor?
• Latentni prostor se formira učenjem prikladnih ugrađenih vektora pomoću metoda kao što
su autokoderi, analiza glavnih komponenti (PCA) ili t-raspodeljeno stohastičko ugrađivanje
suseda (t-SNE).
3. Koje su primene ugrađenih vektora?
• Primene uključuju sisteme za preporučivanje, pretragu po sličnosti, zadatke obrade
prirodnog jezika kao što su klasifikacija teksta i prepoznavanje govora.
4. Koji algoritmi se koriste za kreiranje ugrađenih vektora?
• Algoritmi kao što su Word2Vec, GloVe, fastText, i transformatori (BERT, GPT).
5. Kako se evaluiraju ugrađeni vektori?
• Evaluacija se vrši pomoću metričkih performansi na zadacima kao što su klasifikacija,
pretraga po sličnosti ili vizuelizacija (npr. t-SNE mape).

Poglavlje 2: Samonadgledano učenje

1. Šta je samonadgledano učenje?
• Samonadgledano učenje je metod učenja gde model koristi delove podataka za
generisanje oznaka za druge delove podataka bez eksplicitnog nadzora.
2. Koje su primene samonadgledanog učenja?
• Primene uključuju prepoznavanje objekata u slikama, generisanje teksta, i popunjavanje
nedostajućih podataka.
3. Kako se razlikuje od nadgledanog učenja?
• Dok nadgledano učenje koristi označene podatke, samonadgledano učenje koristi
neoznačene podatke i generiše vlastite oznake.
4. Koje su prednosti samonadgledanog učenja?
• Prednosti uključuju smanjenu potrebu za označenim podacima i mogućnost rada sa
velikim skupovima podataka.
5. Primeri samonadgledanih metoda?
• Primeri uključuju kontrastno učenje (SimCLR), nadzirani zadaci (RotNet), i paradigme
preobučavanja (MAE).

Poglavlje 3: Učenje sa malo primera

1. Šta je učenje sa malo primera?
• Učenje sa malo primera je metod koji omogućava modelima da generalizuju i uče iz
veoma malog broja primera.
2. Koji su izazovi učenja sa malo primera?
• Izazovi uključuju preprilagođavanje, smanjenu generalizaciju, i potrebu za sofisticiranim
tehnikama regularizacije.
3. Kako se može poboljšati učenje sa malo primera?
• Korišćenjem tehnika kao što su učenje prenosom znanja, povećanje podataka, i meta-
učenje.
4. Koje su primene učenja sa malo primera?
• Primene uključuju medicinsku dijagnostiku, personalizovane preporuke, i zadatke sa
retkim događajima.
5. Primeri algoritama za učenje sa malo primera?
• Primeri uključuju meta-učenje nezavisno od modela (MAML), prototipne mreže, i mreže
podudaranja.

Poglavlje 4: Hipoteza o dobitnoj srećki

1. Šta je hipoteza o dobitnoj srećki?
• Hipoteza o dobitnoj srećki sugeriše da u velikim mrežama postoje mali podskupovi težina
koji mogu biti inicijalizovani na način da omogućavaju uspešno treniranje.
2. Kako se testira hipoteza o dobitnoj srećki?
• Testira se analizom performansi mreža nakon selekcije i inicijalizacije određenih
podmreža.
3. Koje su implikacije hipoteze o dobitnoj srećki?
• Implikacije uključuju mogućnost treniranja manjih, efikasnijih mreža sa smanjenim
resursima.
4. Koji su izazovi u implementaciji hipoteze?
• Izazovi uključuju identifikaciju odgovarajućih podmreža i adekvatne tehnike inicijalizacije.
5. Primeri studija koje testiraju ovu hipotezu?
• Studije koje koriste ResNet, VGG mreže i eksperimentalne postavke u kontekstu različitih
zadataka poput klasifikacije slike i prepoznavanja govora.

Poglavlje 5: Smanjivanje preprilagođavanja pomoću podataka

1. Šta je preprilagođavanje?
• Preprilagođavanje se javlja kada model uči detalje i šum iz skupa za obučavanje do te
mere da ne generalizuje dobro na novim podacima.
2. Kako se preprilagođavanje može smanjiti pomoću podataka?
• Korišćenjem tehnika kao što su povećanje podataka, korišćenje dodatnih podataka i polu-
nadgledano učenje.
3. Koje su metode povećanja podataka?
• Metode uključuju rotacije, translacije, skaliranja, promena boja i izobličenja za slike;
sinonim zamene i umetanje za tekst.
4. Šta je polu-nadgledano učenje?
• Polu-nadgledano učenje koristi mali broj označenih podataka zajedno sa velikim brojem
neoznačenih podataka za obuku modela.
5. Kako dodatni podaci mogu pomoći?
• Dodatni podaci mogu poboljšati generalizaciju modela, smanjujući preprilagođavanje na
skupu za obučavanje.

Poglavlje 6: Smanjivanje preprilagođavanja modifikacijama modela

1. Koje su tehnike smanjivanja preprilagođavanja kroz modifikaciju modela?
• Tehnike uključuju regularizaciju (L1/L2), izostavljanje, normalizaciju paketa, i korišćenje
jednostavnijih modela.
2. Kako izostavljanje funkcioniše?
• Izostavljanje funkcioniše tako što na slučajan način isključuje jedinice u neuronskoj mreži
tokom obučavanja kako bi se sprečilo preprilagođavanje.
3. Šta je regularizacija i kako pomaže?
• Regularizacija dodaje kaznu za velike težine u cilju smanjenja preprilagođavanja i
poboljšanja generalizacije.
4. Kako normalizacija paketa funkcioniše?
• Normalizacija paketa normalizuje izlaze svake mini-serije podataka, ubrzavajući i
stabilizujući učenje.
5. Koji su primeri korišćenja jednostavnijih modela?
• Korišćenje jednostavnijih modela uključuje smanjenje broja slojeva ili jedinica po sloju u
mreži.

Poglavlje 7: Paradigme obuke sa više GPU komponenti

1. Kako paralelizacija obuke funkcioniše sa više GPU komponenti?
• Paralelizacija koristi više GPU procesora za istovremeno obučavanje različitih delova
modela ili različitih mini-serija podataka.
2. Koje su prednosti korišćenja više GPU procesora?
• Prednosti uključuju ubrzanje obuke, mogućnost obučavanja većih modela i obradu većih
količina podataka.
3. Šta je paralelizam podataka?
• Paralelizam podataka deli mini-serije podataka između različitih GPU procesora dok svaki
GPU procesor ažurira svoje lokalne težine.
4. Šta je paralelizam modela?
• Paralelizam modela deli različite delove modela između GPU procesora, omogućavajući
paralelnu obradu različitih slojeva modela.
5. Koji su izazovi obuke sa više GPU procesora?
• Izazovi uključuju sinhronizaciju težina, skalabilnost i efikasno korišćenje memorije.

Poglavlje 8: Uspeh transformatora

1. Šta su transformatori?
• Transformatori su arhitekture dubokog učenja koje koriste mehanizme samopažnje da
obrade sekvencijalne podatke bez obzira na njihovu dužinu.
2. Koje su ključne komponente transformatora?
• Ključne komponente uključuju mehanizme samopažnje, slojeve prosleđivanja unapred, i
pozicijske kodere.
3. Kako transformatori poboljšavaju zadatke obrade prirodnog jezika?
• Transformatori omogućavaju bolje razumevanje konteksta i duge zavisnosti u tekstu,
poboljšavajući zadatke kao što su prevođenje, rezimiranje i generisanje teksta.
4. Koje su popularne implementacije transformatora?
• Popularne implementacije uključuju BERT, GPT, T5 i Transformer-XL.
5. Koji su primeri uspeha transformatora u praksi?
• Primeri uključuju poboljšanja u mašinskom prevođenju, odgovaranju na pitanja,
generisanju koda i prepoznavanju govora.

Poglavlje 9: Generativni modeli veštačke inteligencije

1. Šta su generativni modeli?
• Generativni modeli su algoritmi koji uče da generišu nove podatke slične onima na kojima
su obučeni.
2. Koje su vrste generativnih modela?
• Vrste uključuju generativne suparničke mreže (GAN), varijacione autokodere (VAE), i
modele zasnovane na toku.
3. Kako funkcionišu generativne suparničke mreže?
• Generativne suparničke mreže sadrže dva modela: generator koji stvara lažne podatke i
diskriminator koji razlikuje lažne od stvarnih podataka.
4. Koje su primene generativnih modela?
• Primene uključuju generisanje slika, kreiranje veštačkih podataka, povećanje podataka i
stilizaciju slika.
5. Koji su izazovi u obučavanju generativnih modela?
• Izazovi uključuju stabilnost obuke, balansiranje između generatora i diskriminatora, i
ocenjivanje kvaliteta generisanih podataka.

Poglavlje 10: Izvori slučajnosti

1. Šta su izvori slučajnosti?
• Izvori slučajnosti su metode i mehanizmi za generisanje slučajnih brojeva ili događaja.
2. Koji su prirodni izvori slučajnosti?
• Prirodni izvori uključuju termalni šum, radioaktivni raspad, i atmosferski šum.
3. Koji su algoritamski izvori slučajnosti?
• Algoritamski izvori uključuju generatore pseudo-slučajnih brojeva (PRNG) kao što su
Mersenne Twister, i kriptografski PRNG algoritmi.
4. Kako se evaluiraju izvori slučajnosti?
• Evaluacija se vrši analizom statističkih svojstava generisanih sekvenci, uključujući
uniformnost i nepredvidivost.
5. Koje su primene slučajnosti u veštačkoj inteligenciji?
• Primene uključuju inicijalizaciju težina u neuronskim mrežama, povećanje podataka, i
simulacije metodom Monte Karlo.

DEO II: RAČUNARSKO PREPOZNAVANJE SLIKA

Poglavlje 11: Izračunavanje broja parametara

1. Kako se izračunava broj parametara u modelu?
• Broj parametara se izračunava sabiranjem svih težina i pristrasnosti u svim slojevima
modela.
2. Zašto je važno znati broj parametara?
• Znanje o broju parametara je važno za procenu složenosti modela, memorijskih zahteva i
vremena obuke.
3. Kako broj parametara utiče na performanse modela?
• Veći broj parametara može poboljšati performanse, ali povećava rizik od
preprilagođavanja i potrebu za većim resursima.
4. Primer izračunavanja broja parametara u konvolucionoj mreži?
• Za konvolucioni sloj sa filterom 3x3, 64 ulaznih i 128 izlaznih kanala: 3*3*64*128 = 73728
parametara, plus 128 pristrasnosti.
5. Koje su tehnike za smanjenje broja parametara?
• Tehnike uključuju kompresiju modela, proređivanje, kvantizaciju i korišćenje lakših
arhitektura poput MobileNet.

Poglavlje 12: Potpuno povezani i konvolucioni slojevi

1. Šta su potpuno povezani slojevi?
• Potpuno povezani slojevi su slojevi u neuronskim mrežama gde je svaka jedinica
povezana sa svakom jedinicom u prethodnom sloju.
2. Šta su konvolucioni slojevi?
• Konvolucioni slojevi primenjuju konvolucione filtere na ulazne podatke kako bi izdvojili
prostorne karakteristike.
3. Koje su prednosti konvolucionih slojeva?
• Prednosti uključuju smanjenje broja parametara, detekciju lokalnih karakteristika i
invarijantnost na translacije.
4. Koje su primene potpuno povezanih slojeva?
• Primene uključuju zadatke klasifikacije, gde se koristi za kombinovanje karakteristika iz
prethodnih slojeva.
5. Kako se kombinovanjem konvolucionih i potpuno povezanih slojeva gradi konvoluciona
neuronska mreža?
• Konvolucioni slojevi izvlače lokalne karakteristike, dok potpuno povezani slojevi na kraju
mreže vrše klasifikaciju na osnovu ovih karakteristika.

Poglavlje 13: Veliki skupovi za obuku vizuelnih transformatora

1. Šta su vizuelni transformatori (ViT)?
• Vizuelni transformatori koriste mehanizme samopažnje za obradu slika, tretirajući slike
kao niz delova.
2. Zašto su potrebni veliki skupovi za obuku ViT transformatora?
• Veliki skupovi su potrebni da bi ViT transformatori naučili složene vizuelne karakteristike i
postigli dobre performanse.
3. Koji su poznati skupovi podataka za obuku ViT transformatora?
• Poznati skupovi uključuju ImageNet, COCO, i Open Images.
4. Koje su prednosti korišćenja velikih skupova podataka?
• Prednosti uključuju bolje generalizacione performanse i sposobnost modela da uči
raznovrsne karakteristike.
5. Kako se velikim skupovima podataka upravlja tokom obuke?
• Korišćenjem tehnika kao što su distribuirana obuka, povećanje podataka i efikasno
upravljanje memorijom.

DEO III: OBRADA PRIRODNOG JEZIKA

Poglavlje 14: Distribuciona hipoteza

1. Šta je distribuciona hipoteza?
• Distribuciona hipoteza tvrdi da reči koje se pojavljuju u sličnim kontekstima imaju slična
značenja.
2. Koji su primeri distribucionih modela?
• Primeri uključuju Word2Vec, GloVe i fastText.
3. Kako distribuciona hipoteza pomaže u obradi prirodnog jezika?
• Pomaže u učenju ugrađenih vektora reči koji zadržavaju semantičke sličnosti.
4. Koje su kritike distribucione hipoteze?
• Kritike uključuju ograničenja u hvatanju višeznačnosti reči i nedostatak sintaksičkih
informacija.
5. Kako se distribuciona hipoteza implementira u praksi?
• Implementira se obukom modela na velikim skupovima teksta kako bi se naučili ugrađeni
vektori reči.

Poglavlje 15: Povećanje podataka za tekst

1. Šta je povećanje podataka za tekst?
• Povećanje podataka za tekst uključuje tehnike za generisanje dodatnih primeraka
podataka iz postojećih, kako bi se poboljšala obuka modela.
2. Koje su tehnike za povećanje podataka za tekst?
• Tehnike uključuju sinonim zamene, umetanje reči, brisanje reči, i parafraziranje.
3. Koje su prednosti povećanja podataka?
• Prednosti uključuju poboljšanje robusnosti modela, smanjenje preprilagođavanja i
poboljšanje generalizacije.
4. Kako se evaluiraju tehnike povećanja podataka?
• Evaluacija se vrši upoređivanjem performansi modela na zadacima pre i posle povećanja
podataka.
5. Koje su primene povećanja podataka za tekst?
• Primene uključuju klasifikaciju teksta, prepoznavanje entiteta, i prevođenje.

Poglavlje 16: Samopažnja

1. Šta je samopažnja?
• Samopažnja je mehanizam koji omogućava modelima da procene važnost svake reči u
odnosu na druge reči u sekvenci.
2. Kako funkcioniše mehanizam samopažnje?
• Funkcioniše izračunavanjem pažnje pomoću vektora upita, ključeva i vrednosti, gde svaki
element sekvence doprinosi izlazu na osnovu pažnje.
3. Koje su prednosti samopažnje?
• Prednosti uključuju sposobnost da hvata dugačke zavisnosti i paralelnu obradu podataka.
4. Koje su primene samopažnje?
• Primene uključuju mašinsko prevođenje, generisanje teksta, i prepoznavanje govora.
5. Kako samopažnja poboljšava performanse modela?
• Poboljšava performanse omogućavajući modelima da bolje razumeju kontekst i
međuzavisnosti u podacima.

Poglavlje 17: Transformatori u smislu kodera i dekodera

1. Kako funkcionišu transformatori u smislu kodera i dekodera?
• Transformatori u smislu kodera i dekodera sadrže dva glavna dela: koder koji kodira
ulazne podatke i dekoder koji generiše izlazne podatke.
2. Koje su komponente kodera u transformatoru?
• Komponente uključuju višeslojni mehanizam samopažnje, neuronske mreže prosleđivanja
unapred, i pozicijske kodere.
3. Koje su komponente dekodera u transformatoru?
• Komponente uključuju mehanizam samopažnje, pažnju prema izlazima kodera,
neuronske mreže prosleđivanja unapred, i pozicijske kodere.
4. Koje su primene transformatora u smislu kodera i dekodera?
• Primene uključuju mašinsko prevođenje, sumiranje teksta, i sisteme za dijalog.
5. Kako transformatori u smislu kodera i dekodera poboljšavaju zadatke generisanja teksta?
• Poboljšavaju zadatke hvatajući složene zavisnosti u ulaznim i izlaznim sekvencama,
omogućavajući preciznije generisanje teksta.

Poglavlje 18: Korišćenje i fino podešavanje unapred obučenih transformatora

1. Šta je fino podešavanje unapred obučenih transformatora?
• Fino podešavanje uključuje prilagođavanje unapred obučenih modela specifičnim
zadacima koristeći manje skupove podataka.
2. Koji su koraci u finom podešavanju transformatora?
• Koraci uključuju inicijalizaciju sa unapred obučenim težinama, prilagođavanje
hiperparametara, i obuku na specifičnom zadatku.
3. Koje su prednosti korišćenja unapred obučenih transformatora?
• Prednosti uključuju smanjenje potrebnih resursa za obuku, poboljšane performanse, i brže
vreme razvoja.
4. Koji su izazovi u finom podešavanju?
• Izazovi uključuju potrebu za prilagođavanjem hiperparametara, preprilagođavanje na
manji skup podataka, i upravljanje memorijskim zahtevima.
5. Koji su popularni unapred obučeni transformatori?
• Popularni modeli uključuju BERT, GPT-3, RoBERTa, i T5.

Poglavlje 19: Evaluacija generativnih velikih jezičkih modela

1. Kako se evaluiraju generativni veliki jezički modeli?
• Evaluacija se vrši upotrebom metričkih performansi kao što su perpleksnost, BLEU ocene,
i ljudska procena.
2. Koje su metričke performanse za generativne modele?
• Metričke performanse uključuju BLEU, ROUGE, METEOR, i ljudsku procenu fluentnosti i
koherentnosti.
3. Koji su izazovi u evaluaciji generativnih modela?
• Izazovi uključuju subjektivnost ljudske procene, evaluaciju kreativnosti i koherentnosti
generisanog teksta.
4. Kako ljudska evaluacija doprinosi proceni modela?
• Ljudska evaluacija daje uvid u kvalitet, koherentnost i prirodnost generisanog teksta.
5. Koje su primene evaluacije generativnih modela?
• Primene uključuju procenu modela za zadatke kao što su generisanje dijaloga, kreiranje
priča i mašinsko prevođenje.

DEO IV: PROIZVODNJA I IMPLEMENTACIJA

Poglavlje 20: Obuka sa i bez stanja

1. Šta je obuka sa stanjem?
• Obuka sa stanjem koristi modele poput rekurentnih neuronskih mreža (RNN) koje
zadržavaju unutrašnje stanje (memoriju) između koraka obuke.
2. Koje su vrste modela sa stanjem?
• Primeri uključuju arhitekturu dugotrajne memorije (LSTM) i modele sa povratnim
propusnim jedinicama (GRU).
3. Koje su prednosti obuke sa stanjem?
• Prednosti uključuju bolje hvatanje sekvencijalnih zavisnosti i pamćenje prethodnih
informacija, što je korisno za zadatke kao što su prepoznavanje govora i generisanje
teksta.
4. Koji su izazovi obuke sa stanjem?
• Izazovi uključuju probleme sa dugoročnom zavisnošću, složenost obuke i veće potrebe za
računarskim resursima.
5. Šta je obuka bez stanja?
• Obuka bez stanja koristi modele kao što su neuronske mreže prosleđivanja unapred i
transformatori koji ne zadržavaju unutrašnje stanje između koraka obuke.
6. Koje su prednosti obuke bez stanja?
• Prednosti uključuju paralelizaciju obuke, bržu konvergenciju i jednostavniju
implementaciju.
7. Koji su primeri modela bez stanja?
• Primeri uključuju klasične neuronske mreže (ANN), konvolucione neuronske mreže (CNN)
i arhitekture transformatora.
8. Kako se biraju modeli sa ili bez stanja?
• Izbor zavisi od prirode zadatka: modeli sa stanjem su bolji za sekvencijalne podatke, dok
su modeli bez stanja efikasniji za zadatke kao što su klasifikacija slika.

Poglavlje 21: Veštačka inteligencija orijentisana na podatke

1. Šta je veštačka inteligencija orijentisana na podatke?
• Veštačka inteligencija orijentisana na podatke fokusira se na korišćenje velikih količina
podataka za obučavanje modela i donošenje odluka.
2. Koje su ključne komponente veštačke inteligencije orijentisane na podatke?
• Ključne komponente uključuju prikupljanje, obradu i analizu podataka, kao i razvoj modela
za predikciju i odlučivanje.
3. Koje su prednosti veštačke inteligencije orijentisane na podatke?
• Prednosti uključuju bolje performanse modela, mogućnost rada sa raznovrsnim podacima
i skalabilnost.
4. Koji su izazovi veštačke inteligencije orijentisane na podatke?
• Izazovi uključuju kvalitet podataka, obradu velikih količina podataka, zaštitu privatnosti i
etičke probleme.
5. Kako se podaci prikupljaju za veštačku inteligenciju orijentisanu na podatke?
• Podaci se prikupljaju iz različitih izvora kao što su senzori, baze podataka, internet,
društvene mreže i transakcijski sistemi.
6. Kako se podaci obrađuju i pripremaju?
• Podaci se obrađuju kroz procese kao što su čišćenje, transformacija, normalizacija i
integracija pre nego što se koriste za obuku modela.
7. Koje su primene veštačke inteligencije orijentisane na podatke?
• Primene uključuju personalizovane preporuke, analitiku velikih podataka, prediktivno
održavanje, i poslovnu inteligenciju.
8. Koje tehnologije podržavaju veštačku inteligenciju orijentisanu na podatke?
• Tehnologije uključuju baze podataka, platforme sa velikim skupovima podataka (Hadoop,
Spark), računarstvo u oblaku, i alate za analitiku (Tableau, Power BI).

Poglavlje 22: Ubrzavanje zaključivanja

1. Šta je ubrzavanje zaključivanja?
• Ubrzavanje zaključivanja odnosi se na tehnike i metode koje smanjuju vreme potrebno za
izvođenje modela na novim podacima.
2. Zašto je važno ubrzavanje zaključivanja?
• Važno je za aplikacije koje se izvršavaju u realnom vremenu kao što su autonomna vozila,
prepoznavanje lica, i interaktivni asistenti.
3. Koje su tehnike za ubrzavanje zaključivanja?
• Tehnike uključuju kvantizaciju modela, proređivanje, optimizaciju softvera, i korišćenje
specijalizovanog hardvera kao što su procesorske jedinice za tenzore (TPU).
4. Šta je kvantizacija modela?
• Kvantizacija smanjuje preciznost težina modela (npr. od 32-bitnih do 8-bitnih) kako bi se
smanjila memorijska potrošnja i ubrzalo izvođenje.
5. Kako proređivanje funkcioniše?
• Proređivanje uklanja nepotrebne težine i čvorove iz modela, smanjujući njegovu veličinu i
povećavajući brzinu izvođenja.
6. Koje su optimizacije softvera za ubrzavanje zaključivanja?
• Optimizacije uključuju korišćenje efikasnih biblioteka (npr. TensorRT), paralelizaciju
operacija, i optimizaciju memorijskih pristupa.
7. Kako specijalizovani hardver pomaže u ubrzavanju zaključivanja?
• Specijalizovani hardver kao što su GPU i TPU procesori su dizajnirani za ubrzavanje
izvođenja modela mašinskog učenja kroz paralelnu obradu i optimizovane arhitekture.
8. Koje su primene ubrzavanja zaključivanja?
• Primene uključuju mobilne aplikacije, IoT uređaje, virtuelne asistente, i druge aplikacije
gde je brzina ključna.

Poglavlje 23: Promene u raspodeli podataka

1. Šta su promene u raspodeli podataka?
• Promene u raspodeli podataka javljaju se kada raspodele podataka za obučavanje nisu
iste kao raspodele podataka u proizvodnji ili skupovima za testiranje.
2. Koji su uzroci promena u raspodeli podataka?
• Uzroci uključuju promene u vremenu, različite izvore podataka, promene u korisničkom
ponašanju, i nove okolnosti ili događaje.
3. Kako se detektuju promene u raspodeli podataka?
• Detekcija se vrši analizom statističkih svojstava podataka, korišćenjem kliznih prozora za
analizu, vizuelizacijom podataka i evaluacijom performansi modela na novim podacima.
4. Koji su efekti promena u raspodeli podataka?
• Efekti uključuju smanjenje tačnosti modela, povećanje grešaka, i smanjenje pouzdanosti
predikcija.
5. Kako se prilagođavaju modeli promenama u raspodeli podataka?
• Prilagođavanje uključuje ponovno obučavanje modela, učenje prenosom znanja,
korišćenje robustnih modela, i tehnike prilagođavanja domena.
6. Šta je prilagođavanje domena?
• Prilagođavanje domena uključuje prilagođavanje modela da radi na novim raspodelama
podataka bez ponovnog obučavanja na celokupnom novom skupu podataka.
7. Koje su tehnike za prilagođavanje domena?
• Tehnike uključuju korišćenje zajedničkih karakteristika između domena, suparničko
obučavanje, i učenje prenosom znanja.
8. Koje su primene prilagođavanja promenama u raspodeli podataka?
• Primene uključuju prilagođavanje sistema za preporučivanje, prilagođavanje modela za
finansijske prognoze, i održavanje tačnosti predikcija u medicinskim sistemima.

DEO V: PREDIKTIVNE PERFORMANSE I EVALUACIJA MODELA

Poglavlje 24: Puasonova i ordinalna regresija

1. Šta je Puasonova regresija?
• Puasonova regresija je statistički model za modeliranje prebrojivih podataka koji prate
Puasonovu raspodelu.
2. Kada se koristi Puasonova regresija?
• Koristi se kada su zavisne promenljive celobrojne, nenegativne vrednosti kao što su broj
događaja u određenom vremenskom periodu.
3. Šta je ordinalna regresija?
• Ordinalna regresija je model koji se koristi za predikciju zavisnih promenljivih koje su
ordinalne promenljive.
4. Kada se koristi ordinalna regresija?
• Koristi se kada su kategorije zavisne promenljive rangirane, kao što su ocene
zadovoljstva (npr. nesrećan, neutralan, srećan).
5. Koje su prednosti korišćenja ovih regresionih modela?
• Prednosti uključuju mogućnost preciznog modeliranja specifičnih tipova podataka i bolje
razumevanje odnosa među promenljivama.

Poglavlje 25: Intervali poverenja

1. Šta su intervali poverenja?
• Intervali poverenja predstavljaju raspon vrednosti unutar kojih se očekuje da se nalazi
stvarna vrednost parametra uz određeni nivo poverenja.
2. Kako se izračunavaju intervali poverenja?
• Izračunavaju se korišćenjem statističkih formula koje uzimaju u obzir srednju vrednost,
standardnu devijaciju i veličinu uzorka.
3. Koji su nivoi poverenja najčešće korišćeni?
• Najčešće korišćeni nivoi poverenja su 95% i 99%.
4. Kako intervali poverenja pomažu u evaluaciji modela?
• Pomažu u proceni pouzdanosti predikcija modela i kvantifikovanju nesigurnosti.
5. Koje su primene intervala poverenja?
• Primene uključuju ocenjivanje parametara u regresionim modelima, testiranje hipoteza i
donošenje odluka zasnovanih na podacima.

Poglavlje 26: Intervali poverenja naspram konformna predviđanja

1. Šta su konformna predviđanja?
• Konformna predviđanja su metod koji izračunava intervale predviđanja sa zagarantovanim
nivoom poverenja za bilo koji model.
2. Kako se razlikuju intervali poverenja od konformnih predviđanja?
• Intervali poverenja se odnose na ocenjivanje parametara modela, dok konformna
predviđanja daju intervale za predikcije novog podatka.
3. Koje su prednosti konformnih predviđanja?
• Prednosti uključuju fleksibilnost i garancije za tačnost predikcija nezavisno od raspodele
podataka.
4. Koje su primene konformnih predviđanja?
• Primene uključuju medicinsku dijagnostiku, finansijske prognoze, i sve aplikacije gde je
važna preciznost predikcija.
5. Kako se konformna predviđanja računaju?
• Računaju se pomoću algoritama koji prilagođavaju predikcije tako da zadovolje unapred
definisan nivo poverenja.

Poglavlje 27: Adekvatne metrike

1. Šta su adekvatne metrike u evaluaciji modela?
• Adekvatne metrike su metričke performanse koje tačno odražavaju uspešnost modela u
kontekstu specifičnog zadatka.
2. Koje su zajedničke metričke performanse?
• Zajedničke metrike uključuju tačnost, preciznost, odziv, F1 ocenu, AUC-ROC, i srednje-
kvadratnu grešku.
3. Kako se biraju adekvatne metrike?
• Biraju se na osnovu prirode problema, vrste podataka, i specifičnih ciljeva evaluacije.
4. Zašto je važno koristiti adekvatne metrike?
• Važno je za tačno procenjivanje performansi modela i donošenje informisanih odluka.
5. Koji su izazovi u izboru adekvatnih metrika?
• Izazovi uključuju balansiranje između različitih aspekata performansi i prilagođavanje
specifičnostima aplikacije.

Poglavlje 28: K u K-struko unakrsnoj proveri valjanosti

1. Šta je k-struka unakrsna provera valjanosti?
• K-struka unakrsna provera valjanosti je metoda evaluacije modela gde se podaci dele na
K podskupova, a model se obučava i testira k puta, svaki put koristeći različiti podskup
kao skup za testiranje.
2. Koje su prednosti k-struke unakrsne provere valjanosti?
• Prednosti uključuju smanjenje varijacije performansi zbog različitih podela za obučavanje-
testiranje i bolje iskorišćenje podataka.
3. Kako se bira vrednost k?
• Vrednost k se bira na osnovu veličine skupa podataka, često koristeći k=5 ili k=10 kao
standardne vrednosti.
4. Koje su primene k-struke unakrsne provere valjanosti?
• Primene uključuju evaluaciju modela u mašinskom učenju, posebno kada su dostupni
podaci ograničeni.
5. Koje su alternativne metode unakrsne provere valjanosti?
• Alternativne metode uključuju unakrsnu proveru valjanosti ostavljanjem jednog podatka,
sratifikovanu unakrsnu proveru valjanosti i ugneždenu unakrsnu proveru valjanosti.

Poglavlje 29: Neslaganje između skupa za obuku i skupa za testiranje

1. Šta je neslaganje između skupa za obuku i skupa za testiranje?
• Neslaganje se javlja kada raspodele podataka za obučavanje i testiranje nisu identične,
što može dovesti do loših performansi modela na novim podacima.
2. Koji su uzroci neslaganja?
• Uzroci uključuju promene u vremenu, različite izvore podataka i promene u okolini u kojoj
su podaci prikupljeni.
3. Kako se detektuje neslaganje?
• Detekcija se vrši analizom statističkih svojstava podataka, vizuelizacijom podataka i
evaluacijom performansi modela na različitim podskupovima.
4. Koje su metode za prilagođavanje neslaganju?
• Metode uključuju prilagođavanje domenu, učenje prenosom znanja, i korišćenje robusnih
modela.
5. Koje su posledice neslaganja?
• Posledice uključuju smanjenu tačnost modela, lošu generalizaciju i nepouzdane
predikcije.

Poglavlje 30: Ograničeni označeni podaci

1. Kako se nositi sa ograničenim označenim podacima?
• Korišćenjem tehnika kao što su povećanje podataka, polu-nadgledano učenje, učenje
prenosom znanja i aktivno učenje.
2. Šta je polu-nadgledano učenje?
• Polu-nadgledano učenje koristi mali broj označenih podataka zajedno sa velikim brojem
neoznačenih podataka za obuku modela.
3. Šta je učenje prenosom znanja?
• Učenje prenosom znanja koristi modele obučene na jednom zadatku i prilagođava ih za
drugi srodni zadatak sa manjim brojem označenih podataka.
4. Šta je aktivno učenje?
• Aktivno učenje je tehnika gde model aktivno bira koji podaci treba da budu označeni kako
bi se maksimizirala njegova obuka.
5. Koje su prednosti korišćenja ovih tehnika?
• Prednosti uključuju poboljšane performanse modela, bolju generalizaciju i efikasnije
korišćenje ograničenih resursa.

 

         
Twitter Facebook Linkedin Pinterest Email
         

Budite prvi koji će ostaviti komentar.

Ostavite komentar Ostavite komentar

 

 

 

Veze, linkovi
Linkedin Twitter Facebook
 
     
 
© Sva prava pridržana, Kompjuter biblioteka, Beograd, Obalskih radnika 4a, Telefon: +381 11 252 0 272