Veštačka inteligencija i mašinsko učenje 30 pitanja i odgovora drugačiji pogled
Poglavlje 1: Ugrađeni vektori, latentni prostor i reprezentacije
1. Šta su ugrađeni vektori? • Ugrađeni vektori su numeričke reprezentacije objekata u prostoru manje dimenzije koje zadržavaju semantičke karakteristike originalnih podataka. 2. Kako se formira latentni prostor? • Latentni prostor se formira učenjem prikladnih ugrađenih vektora pomoću metoda kao što su autokoderi, analiza glavnih komponenti (PCA) ili t-raspodeljeno stohastičko ugrađivanje suseda (t-SNE). 3. Koje su primene ugrađenih vektora? • Primene uključuju sisteme za preporučivanje, pretragu po sličnosti, zadatke obrade prirodnog jezika kao što su klasifikacija teksta i prepoznavanje govora. 4. Koji algoritmi se koriste za kreiranje ugrađenih vektora? • Algoritmi kao što su Word2Vec, GloVe, fastText, i transformatori (BERT, GPT). 5. Kako se evaluiraju ugrađeni vektori? • Evaluacija se vrši pomoću metričkih performansi na zadacima kao što su klasifikacija, pretraga po sličnosti ili vizuelizacija (npr. t-SNE mape).
Poglavlje 2: Samonadgledano učenje
1. Šta je samonadgledano učenje? • Samonadgledano učenje je metod učenja gde model koristi delove podataka za generisanje oznaka za druge delove podataka bez eksplicitnog nadzora. 2. Koje su primene samonadgledanog učenja? • Primene uključuju prepoznavanje objekata u slikama, generisanje teksta, i popunjavanje nedostajućih podataka. 3. Kako se razlikuje od nadgledanog učenja? • Dok nadgledano učenje koristi označene podatke, samonadgledano učenje koristi neoznačene podatke i generiše vlastite oznake. 4. Koje su prednosti samonadgledanog učenja? • Prednosti uključuju smanjenu potrebu za označenim podacima i mogućnost rada sa velikim skupovima podataka. 5. Primeri samonadgledanih metoda? • Primeri uključuju kontrastno učenje (SimCLR), nadzirani zadaci (RotNet), i paradigme preobučavanja (MAE).
Poglavlje 3: Učenje sa malo primera
1. Šta je učenje sa malo primera? • Učenje sa malo primera je metod koji omogućava modelima da generalizuju i uče iz veoma malog broja primera. 2. Koji su izazovi učenja sa malo primera? • Izazovi uključuju preprilagođavanje, smanjenu generalizaciju, i potrebu za sofisticiranim tehnikama regularizacije. 3. Kako se može poboljšati učenje sa malo primera? • Korišćenjem tehnika kao što su učenje prenosom znanja, povećanje podataka, i meta- učenje. 4. Koje su primene učenja sa malo primera? • Primene uključuju medicinsku dijagnostiku, personalizovane preporuke, i zadatke sa retkim događajima. 5. Primeri algoritama za učenje sa malo primera? • Primeri uključuju meta-učenje nezavisno od modela (MAML), prototipne mreže, i mreže podudaranja.
Poglavlje 4: Hipoteza o dobitnoj srećki
1. Šta je hipoteza o dobitnoj srećki? • Hipoteza o dobitnoj srećki sugeriše da u velikim mrežama postoje mali podskupovi težina koji mogu biti inicijalizovani na način da omogućavaju uspešno treniranje. 2. Kako se testira hipoteza o dobitnoj srećki? • Testira se analizom performansi mreža nakon selekcije i inicijalizacije određenih podmreža. 3. Koje su implikacije hipoteze o dobitnoj srećki? • Implikacije uključuju mogućnost treniranja manjih, efikasnijih mreža sa smanjenim resursima. 4. Koji su izazovi u implementaciji hipoteze? • Izazovi uključuju identifikaciju odgovarajućih podmreža i adekvatne tehnike inicijalizacije. 5. Primeri studija koje testiraju ovu hipotezu? • Studije koje koriste ResNet, VGG mreže i eksperimentalne postavke u kontekstu različitih zadataka poput klasifikacije slike i prepoznavanja govora.
Poglavlje 5: Smanjivanje preprilagođavanja pomoću podataka
1. Šta je preprilagođavanje? • Preprilagođavanje se javlja kada model uči detalje i šum iz skupa za obučavanje do te mere da ne generalizuje dobro na novim podacima. 2. Kako se preprilagođavanje može smanjiti pomoću podataka? • Korišćenjem tehnika kao što su povećanje podataka, korišćenje dodatnih podataka i polu- nadgledano učenje. 3. Koje su metode povećanja podataka? • Metode uključuju rotacije, translacije, skaliranja, promena boja i izobličenja za slike; sinonim zamene i umetanje za tekst. 4. Šta je polu-nadgledano učenje? • Polu-nadgledano učenje koristi mali broj označenih podataka zajedno sa velikim brojem neoznačenih podataka za obuku modela. 5. Kako dodatni podaci mogu pomoći? • Dodatni podaci mogu poboljšati generalizaciju modela, smanjujući preprilagođavanje na skupu za obučavanje.
Poglavlje 6: Smanjivanje preprilagođavanja modifikacijama modela
1. Koje su tehnike smanjivanja preprilagođavanja kroz modifikaciju modela? • Tehnike uključuju regularizaciju (L1/L2), izostavljanje, normalizaciju paketa, i korišćenje jednostavnijih modela. 2. Kako izostavljanje funkcioniše? • Izostavljanje funkcioniše tako što na slučajan način isključuje jedinice u neuronskoj mreži tokom obučavanja kako bi se sprečilo preprilagođavanje. 3. Šta je regularizacija i kako pomaže? • Regularizacija dodaje kaznu za velike težine u cilju smanjenja preprilagođavanja i poboljšanja generalizacije. 4. Kako normalizacija paketa funkcioniše? • Normalizacija paketa normalizuje izlaze svake mini-serije podataka, ubrzavajući i stabilizujući učenje. 5. Koji su primeri korišćenja jednostavnijih modela? • Korišćenje jednostavnijih modela uključuje smanjenje broja slojeva ili jedinica po sloju u mreži.
Poglavlje 7: Paradigme obuke sa više GPU komponenti
1. Kako paralelizacija obuke funkcioniše sa više GPU komponenti? • Paralelizacija koristi više GPU procesora za istovremeno obučavanje različitih delova modela ili različitih mini-serija podataka. 2. Koje su prednosti korišćenja više GPU procesora? • Prednosti uključuju ubrzanje obuke, mogućnost obučavanja većih modela i obradu većih količina podataka. 3. Šta je paralelizam podataka? • Paralelizam podataka deli mini-serije podataka između različitih GPU procesora dok svaki GPU procesor ažurira svoje lokalne težine. 4. Šta je paralelizam modela? • Paralelizam modela deli različite delove modela između GPU procesora, omogućavajući paralelnu obradu različitih slojeva modela. 5. Koji su izazovi obuke sa više GPU procesora? • Izazovi uključuju sinhronizaciju težina, skalabilnost i efikasno korišćenje memorije.
Poglavlje 8: Uspeh transformatora
1. Šta su transformatori? • Transformatori su arhitekture dubokog učenja koje koriste mehanizme samopažnje da obrade sekvencijalne podatke bez obzira na njihovu dužinu. 2. Koje su ključne komponente transformatora? • Ključne komponente uključuju mehanizme samopažnje, slojeve prosleđivanja unapred, i pozicijske kodere. 3. Kako transformatori poboljšavaju zadatke obrade prirodnog jezika? • Transformatori omogućavaju bolje razumevanje konteksta i duge zavisnosti u tekstu, poboljšavajući zadatke kao što su prevođenje, rezimiranje i generisanje teksta. 4. Koje su popularne implementacije transformatora? • Popularne implementacije uključuju BERT, GPT, T5 i Transformer-XL. 5. Koji su primeri uspeha transformatora u praksi? • Primeri uključuju poboljšanja u mašinskom prevođenju, odgovaranju na pitanja, generisanju koda i prepoznavanju govora.
Poglavlje 9: Generativni modeli veštačke inteligencije
1. Šta su generativni modeli? • Generativni modeli su algoritmi koji uče da generišu nove podatke slične onima na kojima su obučeni. 2. Koje su vrste generativnih modela? • Vrste uključuju generativne suparničke mreže (GAN), varijacione autokodere (VAE), i modele zasnovane na toku. 3. Kako funkcionišu generativne suparničke mreže? • Generativne suparničke mreže sadrže dva modela: generator koji stvara lažne podatke i diskriminator koji razlikuje lažne od stvarnih podataka. 4. Koje su primene generativnih modela? • Primene uključuju generisanje slika, kreiranje veštačkih podataka, povećanje podataka i stilizaciju slika. 5. Koji su izazovi u obučavanju generativnih modela? • Izazovi uključuju stabilnost obuke, balansiranje između generatora i diskriminatora, i ocenjivanje kvaliteta generisanih podataka.
Poglavlje 10: Izvori slučajnosti
1. Šta su izvori slučajnosti? • Izvori slučajnosti su metode i mehanizmi za generisanje slučajnih brojeva ili događaja. 2. Koji su prirodni izvori slučajnosti? • Prirodni izvori uključuju termalni šum, radioaktivni raspad, i atmosferski šum. 3. Koji su algoritamski izvori slučajnosti? • Algoritamski izvori uključuju generatore pseudo-slučajnih brojeva (PRNG) kao što su Mersenne Twister, i kriptografski PRNG algoritmi. 4. Kako se evaluiraju izvori slučajnosti? • Evaluacija se vrši analizom statističkih svojstava generisanih sekvenci, uključujući uniformnost i nepredvidivost. 5. Koje su primene slučajnosti u veštačkoj inteligenciji? • Primene uključuju inicijalizaciju težina u neuronskim mrežama, povećanje podataka, i simulacije metodom Monte Karlo.
DEO II: RAČUNARSKO PREPOZNAVANJE SLIKA
Poglavlje 11: Izračunavanje broja parametara
1. Kako se izračunava broj parametara u modelu? • Broj parametara se izračunava sabiranjem svih težina i pristrasnosti u svim slojevima modela. 2. Zašto je važno znati broj parametara? • Znanje o broju parametara je važno za procenu složenosti modela, memorijskih zahteva i vremena obuke. 3. Kako broj parametara utiče na performanse modela? • Veći broj parametara može poboljšati performanse, ali povećava rizik od preprilagođavanja i potrebu za većim resursima. 4. Primer izračunavanja broja parametara u konvolucionoj mreži? • Za konvolucioni sloj sa filterom 3x3, 64 ulaznih i 128 izlaznih kanala: 3*3*64*128 = 73728 parametara, plus 128 pristrasnosti. 5. Koje su tehnike za smanjenje broja parametara? • Tehnike uključuju kompresiju modela, proređivanje, kvantizaciju i korišćenje lakših arhitektura poput MobileNet.
Poglavlje 12: Potpuno povezani i konvolucioni slojevi
1. Šta su potpuno povezani slojevi? • Potpuno povezani slojevi su slojevi u neuronskim mrežama gde je svaka jedinica povezana sa svakom jedinicom u prethodnom sloju. 2. Šta su konvolucioni slojevi? • Konvolucioni slojevi primenjuju konvolucione filtere na ulazne podatke kako bi izdvojili prostorne karakteristike. 3. Koje su prednosti konvolucionih slojeva? • Prednosti uključuju smanjenje broja parametara, detekciju lokalnih karakteristika i invarijantnost na translacije. 4. Koje su primene potpuno povezanih slojeva? • Primene uključuju zadatke klasifikacije, gde se koristi za kombinovanje karakteristika iz prethodnih slojeva. 5. Kako se kombinovanjem konvolucionih i potpuno povezanih slojeva gradi konvoluciona neuronska mreža? • Konvolucioni slojevi izvlače lokalne karakteristike, dok potpuno povezani slojevi na kraju mreže vrše klasifikaciju na osnovu ovih karakteristika.
Poglavlje 13: Veliki skupovi za obuku vizuelnih transformatora
1. Šta su vizuelni transformatori (ViT)? • Vizuelni transformatori koriste mehanizme samopažnje za obradu slika, tretirajući slike kao niz delova. 2. Zašto su potrebni veliki skupovi za obuku ViT transformatora? • Veliki skupovi su potrebni da bi ViT transformatori naučili složene vizuelne karakteristike i postigli dobre performanse. 3. Koji su poznati skupovi podataka za obuku ViT transformatora? • Poznati skupovi uključuju ImageNet, COCO, i Open Images. 4. Koje su prednosti korišćenja velikih skupova podataka? • Prednosti uključuju bolje generalizacione performanse i sposobnost modela da uči raznovrsne karakteristike. 5. Kako se velikim skupovima podataka upravlja tokom obuke? • Korišćenjem tehnika kao što su distribuirana obuka, povećanje podataka i efikasno upravljanje memorijom.
DEO III: OBRADA PRIRODNOG JEZIKA
Poglavlje 14: Distribuciona hipoteza
1. Šta je distribuciona hipoteza? • Distribuciona hipoteza tvrdi da reči koje se pojavljuju u sličnim kontekstima imaju slična značenja. 2. Koji su primeri distribucionih modela? • Primeri uključuju Word2Vec, GloVe i fastText. 3. Kako distribuciona hipoteza pomaže u obradi prirodnog jezika? • Pomaže u učenju ugrađenih vektora reči koji zadržavaju semantičke sličnosti. 4. Koje su kritike distribucione hipoteze? • Kritike uključuju ograničenja u hvatanju višeznačnosti reči i nedostatak sintaksičkih informacija. 5. Kako se distribuciona hipoteza implementira u praksi? • Implementira se obukom modela na velikim skupovima teksta kako bi se naučili ugrađeni vektori reči.
Poglavlje 15: Povećanje podataka za tekst
1. Šta je povećanje podataka za tekst? • Povećanje podataka za tekst uključuje tehnike za generisanje dodatnih primeraka podataka iz postojećih, kako bi se poboljšala obuka modela. 2. Koje su tehnike za povećanje podataka za tekst? • Tehnike uključuju sinonim zamene, umetanje reči, brisanje reči, i parafraziranje. 3. Koje su prednosti povećanja podataka? • Prednosti uključuju poboljšanje robusnosti modela, smanjenje preprilagođavanja i poboljšanje generalizacije. 4. Kako se evaluiraju tehnike povećanja podataka? • Evaluacija se vrši upoređivanjem performansi modela na zadacima pre i posle povećanja podataka. 5. Koje su primene povećanja podataka za tekst? • Primene uključuju klasifikaciju teksta, prepoznavanje entiteta, i prevođenje.
Poglavlje 16: Samopažnja
1. Šta je samopažnja? • Samopažnja je mehanizam koji omogućava modelima da procene važnost svake reči u odnosu na druge reči u sekvenci. 2. Kako funkcioniše mehanizam samopažnje? • Funkcioniše izračunavanjem pažnje pomoću vektora upita, ključeva i vrednosti, gde svaki element sekvence doprinosi izlazu na osnovu pažnje. 3. Koje su prednosti samopažnje? • Prednosti uključuju sposobnost da hvata dugačke zavisnosti i paralelnu obradu podataka. 4. Koje su primene samopažnje? • Primene uključuju mašinsko prevođenje, generisanje teksta, i prepoznavanje govora. 5. Kako samopažnja poboljšava performanse modela? • Poboljšava performanse omogućavajući modelima da bolje razumeju kontekst i međuzavisnosti u podacima.
Poglavlje 17: Transformatori u smislu kodera i dekodera
1. Kako funkcionišu transformatori u smislu kodera i dekodera? • Transformatori u smislu kodera i dekodera sadrže dva glavna dela: koder koji kodira ulazne podatke i dekoder koji generiše izlazne podatke. 2. Koje su komponente kodera u transformatoru? • Komponente uključuju višeslojni mehanizam samopažnje, neuronske mreže prosleđivanja unapred, i pozicijske kodere. 3. Koje su komponente dekodera u transformatoru? • Komponente uključuju mehanizam samopažnje, pažnju prema izlazima kodera, neuronske mreže prosleđivanja unapred, i pozicijske kodere. 4. Koje su primene transformatora u smislu kodera i dekodera? • Primene uključuju mašinsko prevođenje, sumiranje teksta, i sisteme za dijalog. 5. Kako transformatori u smislu kodera i dekodera poboljšavaju zadatke generisanja teksta? • Poboljšavaju zadatke hvatajući složene zavisnosti u ulaznim i izlaznim sekvencama, omogućavajući preciznije generisanje teksta.
Poglavlje 18: Korišćenje i fino podešavanje unapred obučenih transformatora
1. Šta je fino podešavanje unapred obučenih transformatora? • Fino podešavanje uključuje prilagođavanje unapred obučenih modela specifičnim zadacima koristeći manje skupove podataka. 2. Koji su koraci u finom podešavanju transformatora? • Koraci uključuju inicijalizaciju sa unapred obučenim težinama, prilagođavanje hiperparametara, i obuku na specifičnom zadatku. 3. Koje su prednosti korišćenja unapred obučenih transformatora? • Prednosti uključuju smanjenje potrebnih resursa za obuku, poboljšane performanse, i brže vreme razvoja. 4. Koji su izazovi u finom podešavanju? • Izazovi uključuju potrebu za prilagođavanjem hiperparametara, preprilagođavanje na manji skup podataka, i upravljanje memorijskim zahtevima. 5. Koji su popularni unapred obučeni transformatori? • Popularni modeli uključuju BERT, GPT-3, RoBERTa, i T5.
Poglavlje 19: Evaluacija generativnih velikih jezičkih modela
1. Kako se evaluiraju generativni veliki jezički modeli? • Evaluacija se vrši upotrebom metričkih performansi kao što su perpleksnost, BLEU ocene, i ljudska procena. 2. Koje su metričke performanse za generativne modele? • Metričke performanse uključuju BLEU, ROUGE, METEOR, i ljudsku procenu fluentnosti i koherentnosti. 3. Koji su izazovi u evaluaciji generativnih modela? • Izazovi uključuju subjektivnost ljudske procene, evaluaciju kreativnosti i koherentnosti generisanog teksta. 4. Kako ljudska evaluacija doprinosi proceni modela? • Ljudska evaluacija daje uvid u kvalitet, koherentnost i prirodnost generisanog teksta. 5. Koje su primene evaluacije generativnih modela? • Primene uključuju procenu modela za zadatke kao što su generisanje dijaloga, kreiranje priča i mašinsko prevođenje.
DEO IV: PROIZVODNJA I IMPLEMENTACIJA
Poglavlje 20: Obuka sa i bez stanja
1. Šta je obuka sa stanjem? • Obuka sa stanjem koristi modele poput rekurentnih neuronskih mreža (RNN) koje zadržavaju unutrašnje stanje (memoriju) između koraka obuke. 2. Koje su vrste modela sa stanjem? • Primeri uključuju arhitekturu dugotrajne memorije (LSTM) i modele sa povratnim propusnim jedinicama (GRU). 3. Koje su prednosti obuke sa stanjem? • Prednosti uključuju bolje hvatanje sekvencijalnih zavisnosti i pamćenje prethodnih informacija, što je korisno za zadatke kao što su prepoznavanje govora i generisanje teksta. 4. Koji su izazovi obuke sa stanjem? • Izazovi uključuju probleme sa dugoročnom zavisnošću, složenost obuke i veće potrebe za računarskim resursima. 5. Šta je obuka bez stanja? • Obuka bez stanja koristi modele kao što su neuronske mreže prosleđivanja unapred i transformatori koji ne zadržavaju unutrašnje stanje između koraka obuke. 6. Koje su prednosti obuke bez stanja? • Prednosti uključuju paralelizaciju obuke, bržu konvergenciju i jednostavniju implementaciju. 7. Koji su primeri modela bez stanja? • Primeri uključuju klasične neuronske mreže (ANN), konvolucione neuronske mreže (CNN) i arhitekture transformatora. 8. Kako se biraju modeli sa ili bez stanja? • Izbor zavisi od prirode zadatka: modeli sa stanjem su bolji za sekvencijalne podatke, dok su modeli bez stanja efikasniji za zadatke kao što su klasifikacija slika.
Poglavlje 21: Veštačka inteligencija orijentisana na podatke
1. Šta je veštačka inteligencija orijentisana na podatke? • Veštačka inteligencija orijentisana na podatke fokusira se na korišćenje velikih količina podataka za obučavanje modela i donošenje odluka. 2. Koje su ključne komponente veštačke inteligencije orijentisane na podatke? • Ključne komponente uključuju prikupljanje, obradu i analizu podataka, kao i razvoj modela za predikciju i odlučivanje. 3. Koje su prednosti veštačke inteligencije orijentisane na podatke? • Prednosti uključuju bolje performanse modela, mogućnost rada sa raznovrsnim podacima i skalabilnost. 4. Koji su izazovi veštačke inteligencije orijentisane na podatke? • Izazovi uključuju kvalitet podataka, obradu velikih količina podataka, zaštitu privatnosti i etičke probleme. 5. Kako se podaci prikupljaju za veštačku inteligenciju orijentisanu na podatke? • Podaci se prikupljaju iz različitih izvora kao što su senzori, baze podataka, internet, društvene mreže i transakcijski sistemi. 6. Kako se podaci obrađuju i pripremaju? • Podaci se obrađuju kroz procese kao što su čišćenje, transformacija, normalizacija i integracija pre nego što se koriste za obuku modela. 7. Koje su primene veštačke inteligencije orijentisane na podatke? • Primene uključuju personalizovane preporuke, analitiku velikih podataka, prediktivno održavanje, i poslovnu inteligenciju. 8. Koje tehnologije podržavaju veštačku inteligenciju orijentisanu na podatke? • Tehnologije uključuju baze podataka, platforme sa velikim skupovima podataka (Hadoop, Spark), računarstvo u oblaku, i alate za analitiku (Tableau, Power BI).
Poglavlje 22: Ubrzavanje zaključivanja
1. Šta je ubrzavanje zaključivanja? • Ubrzavanje zaključivanja odnosi se na tehnike i metode koje smanjuju vreme potrebno za izvođenje modela na novim podacima. 2. Zašto je važno ubrzavanje zaključivanja? • Važno je za aplikacije koje se izvršavaju u realnom vremenu kao što su autonomna vozila, prepoznavanje lica, i interaktivni asistenti. 3. Koje su tehnike za ubrzavanje zaključivanja? • Tehnike uključuju kvantizaciju modela, proređivanje, optimizaciju softvera, i korišćenje specijalizovanog hardvera kao što su procesorske jedinice za tenzore (TPU). 4. Šta je kvantizacija modela? • Kvantizacija smanjuje preciznost težina modela (npr. od 32-bitnih do 8-bitnih) kako bi se smanjila memorijska potrošnja i ubrzalo izvođenje. 5. Kako proređivanje funkcioniše? • Proređivanje uklanja nepotrebne težine i čvorove iz modela, smanjujući njegovu veličinu i povećavajući brzinu izvođenja. 6. Koje su optimizacije softvera za ubrzavanje zaključivanja? • Optimizacije uključuju korišćenje efikasnih biblioteka (npr. TensorRT), paralelizaciju operacija, i optimizaciju memorijskih pristupa. 7. Kako specijalizovani hardver pomaže u ubrzavanju zaključivanja? • Specijalizovani hardver kao što su GPU i TPU procesori su dizajnirani za ubrzavanje izvođenja modela mašinskog učenja kroz paralelnu obradu i optimizovane arhitekture. 8. Koje su primene ubrzavanja zaključivanja? • Primene uključuju mobilne aplikacije, IoT uređaje, virtuelne asistente, i druge aplikacije gde je brzina ključna.
Poglavlje 23: Promene u raspodeli podataka
1. Šta su promene u raspodeli podataka? • Promene u raspodeli podataka javljaju se kada raspodele podataka za obučavanje nisu iste kao raspodele podataka u proizvodnji ili skupovima za testiranje. 2. Koji su uzroci promena u raspodeli podataka? • Uzroci uključuju promene u vremenu, različite izvore podataka, promene u korisničkom ponašanju, i nove okolnosti ili događaje. 3. Kako se detektuju promene u raspodeli podataka? • Detekcija se vrši analizom statističkih svojstava podataka, korišćenjem kliznih prozora za analizu, vizuelizacijom podataka i evaluacijom performansi modela na novim podacima. 4. Koji su efekti promena u raspodeli podataka? • Efekti uključuju smanjenje tačnosti modela, povećanje grešaka, i smanjenje pouzdanosti predikcija. 5. Kako se prilagođavaju modeli promenama u raspodeli podataka? • Prilagođavanje uključuje ponovno obučavanje modela, učenje prenosom znanja, korišćenje robustnih modela, i tehnike prilagođavanja domena. 6. Šta je prilagođavanje domena? • Prilagođavanje domena uključuje prilagođavanje modela da radi na novim raspodelama podataka bez ponovnog obučavanja na celokupnom novom skupu podataka. 7. Koje su tehnike za prilagođavanje domena? • Tehnike uključuju korišćenje zajedničkih karakteristika između domena, suparničko obučavanje, i učenje prenosom znanja. 8. Koje su primene prilagođavanja promenama u raspodeli podataka? • Primene uključuju prilagođavanje sistema za preporučivanje, prilagođavanje modela za finansijske prognoze, i održavanje tačnosti predikcija u medicinskim sistemima.
DEO V: PREDIKTIVNE PERFORMANSE I EVALUACIJA MODELA
Poglavlje 24: Puasonova i ordinalna regresija
1. Šta je Puasonova regresija? • Puasonova regresija je statistički model za modeliranje prebrojivih podataka koji prate Puasonovu raspodelu. 2. Kada se koristi Puasonova regresija? • Koristi se kada su zavisne promenljive celobrojne, nenegativne vrednosti kao što su broj događaja u određenom vremenskom periodu. 3. Šta je ordinalna regresija? • Ordinalna regresija je model koji se koristi za predikciju zavisnih promenljivih koje su ordinalne promenljive. 4. Kada se koristi ordinalna regresija? • Koristi se kada su kategorije zavisne promenljive rangirane, kao što su ocene zadovoljstva (npr. nesrećan, neutralan, srećan). 5. Koje su prednosti korišćenja ovih regresionih modela? • Prednosti uključuju mogućnost preciznog modeliranja specifičnih tipova podataka i bolje razumevanje odnosa među promenljivama.
Poglavlje 25: Intervali poverenja
1. Šta su intervali poverenja? • Intervali poverenja predstavljaju raspon vrednosti unutar kojih se očekuje da se nalazi stvarna vrednost parametra uz određeni nivo poverenja. 2. Kako se izračunavaju intervali poverenja? • Izračunavaju se korišćenjem statističkih formula koje uzimaju u obzir srednju vrednost, standardnu devijaciju i veličinu uzorka. 3. Koji su nivoi poverenja najčešće korišćeni? • Najčešće korišćeni nivoi poverenja su 95% i 99%. 4. Kako intervali poverenja pomažu u evaluaciji modela? • Pomažu u proceni pouzdanosti predikcija modela i kvantifikovanju nesigurnosti. 5. Koje su primene intervala poverenja? • Primene uključuju ocenjivanje parametara u regresionim modelima, testiranje hipoteza i donošenje odluka zasnovanih na podacima.
Poglavlje 26: Intervali poverenja naspram konformna predviđanja
1. Šta su konformna predviđanja? • Konformna predviđanja su metod koji izračunava intervale predviđanja sa zagarantovanim nivoom poverenja za bilo koji model. 2. Kako se razlikuju intervali poverenja od konformnih predviđanja? • Intervali poverenja se odnose na ocenjivanje parametara modela, dok konformna predviđanja daju intervale za predikcije novog podatka. 3. Koje su prednosti konformnih predviđanja? • Prednosti uključuju fleksibilnost i garancije za tačnost predikcija nezavisno od raspodele podataka. 4. Koje su primene konformnih predviđanja? • Primene uključuju medicinsku dijagnostiku, finansijske prognoze, i sve aplikacije gde je važna preciznost predikcija. 5. Kako se konformna predviđanja računaju? • Računaju se pomoću algoritama koji prilagođavaju predikcije tako da zadovolje unapred definisan nivo poverenja.
Poglavlje 27: Adekvatne metrike
1. Šta su adekvatne metrike u evaluaciji modela? • Adekvatne metrike su metričke performanse koje tačno odražavaju uspešnost modela u kontekstu specifičnog zadatka. 2. Koje su zajedničke metričke performanse? • Zajedničke metrike uključuju tačnost, preciznost, odziv, F1 ocenu, AUC-ROC, i srednje- kvadratnu grešku. 3. Kako se biraju adekvatne metrike? • Biraju se na osnovu prirode problema, vrste podataka, i specifičnih ciljeva evaluacije. 4. Zašto je važno koristiti adekvatne metrike? • Važno je za tačno procenjivanje performansi modela i donošenje informisanih odluka. 5. Koji su izazovi u izboru adekvatnih metrika? • Izazovi uključuju balansiranje između različitih aspekata performansi i prilagođavanje specifičnostima aplikacije.
Poglavlje 28: K u K-struko unakrsnoj proveri valjanosti
1. Šta je k-struka unakrsna provera valjanosti? • K-struka unakrsna provera valjanosti je metoda evaluacije modela gde se podaci dele na K podskupova, a model se obučava i testira k puta, svaki put koristeći različiti podskup kao skup za testiranje. 2. Koje su prednosti k-struke unakrsne provere valjanosti? • Prednosti uključuju smanjenje varijacije performansi zbog različitih podela za obučavanje- testiranje i bolje iskorišćenje podataka. 3. Kako se bira vrednost k? • Vrednost k se bira na osnovu veličine skupa podataka, često koristeći k=5 ili k=10 kao standardne vrednosti. 4. Koje su primene k-struke unakrsne provere valjanosti? • Primene uključuju evaluaciju modela u mašinskom učenju, posebno kada su dostupni podaci ograničeni. 5. Koje su alternativne metode unakrsne provere valjanosti? • Alternativne metode uključuju unakrsnu proveru valjanosti ostavljanjem jednog podatka, sratifikovanu unakrsnu proveru valjanosti i ugneždenu unakrsnu proveru valjanosti.
Poglavlje 29: Neslaganje između skupa za obuku i skupa za testiranje
1. Šta je neslaganje između skupa za obuku i skupa za testiranje? • Neslaganje se javlja kada raspodele podataka za obučavanje i testiranje nisu identične, što može dovesti do loših performansi modela na novim podacima. 2. Koji su uzroci neslaganja? • Uzroci uključuju promene u vremenu, različite izvore podataka i promene u okolini u kojoj su podaci prikupljeni. 3. Kako se detektuje neslaganje? • Detekcija se vrši analizom statističkih svojstava podataka, vizuelizacijom podataka i evaluacijom performansi modela na različitim podskupovima. 4. Koje su metode za prilagođavanje neslaganju? • Metode uključuju prilagođavanje domenu, učenje prenosom znanja, i korišćenje robusnih modela. 5. Koje su posledice neslaganja? • Posledice uključuju smanjenu tačnost modela, lošu generalizaciju i nepouzdane predikcije.
Poglavlje 30: Ograničeni označeni podaci
1. Kako se nositi sa ograničenim označenim podacima? • Korišćenjem tehnika kao što su povećanje podataka, polu-nadgledano učenje, učenje prenosom znanja i aktivno učenje. 2. Šta je polu-nadgledano učenje? • Polu-nadgledano učenje koristi mali broj označenih podataka zajedno sa velikim brojem neoznačenih podataka za obuku modela. 3. Šta je učenje prenosom znanja? • Učenje prenosom znanja koristi modele obučene na jednom zadatku i prilagođava ih za drugi srodni zadatak sa manjim brojem označenih podataka. 4. Šta je aktivno učenje? • Aktivno učenje je tehnika gde model aktivno bira koji podaci treba da budu označeni kako bi se maksimizirala njegova obuka. 5. Koje su prednosti korišćenja ovih tehnika? • Prednosti uključuju poboljšane performanse modela, bolju generalizaciju i efikasnije korišćenje ograničenih resursa.