Veze, linkovi
Kompjuter biblioteka
Korpa

 

Access

ALGORITMI

Alternativna učenja

Analiza podataka

Android

Animacija

Antropologija

Apple - MAC OS X

Arheologija

Arhitektura

Astrologija

Astronomija

Audio kursevi + knjige

Audio, Multimedia, Video

Autobiografija

AutoCad, ArchiCAD, SolidWorks, Catia, Pro/Engineer

Automobili

Bajke

Baze podataka

Biografija

Biološke nauke

Blockchain

Botanika

C++ Visual C++ C#

ChatGPT

CSS

Dečije knjige

Delphi

Digitalna fotografija

Dizajn

Django

Domaće pripovetke

Domaći roman

Drama

E-knjiga

E-komerc

ECDL

Ekologija

Ekonomija

Elektrotehnika

Enciklopedija

Esejistika

Etika

Fantastika

Film

Filologija

Filozofija

Fizika

Fotografija

FULL STACK DEVELOPMENT

Funkcionalno programiranje

Generativna veštačka inteligencija

Geografija

Geologija

Git i GitHub

GOOGLE

GPT

Grafika, Dizajn, Štampa

Građevinarstvo

Hardver

Hemija

Hidrotehnika

Hobi

Horor

Humor

Internet

Intervju

Istorija

Istorija i teorija književnosti

Istorija umetnosti

Istorijski roman

Java

JavaScript

Joomla

jQuery

Knjiga posle posla - Beletristika i ostala izdanja

Knjižare i naše knjige

Književna kritika

Kuvari, hrana i piće

Leksikografija

Lingvistika

Ljubavni roman

logo

Magija

Marketing

Mašinsko učenje

Mašinstvo

Matematika

Medicina

Memoari

Menadžment

Modeliranje podataka

Monografija

Mreže

MS Office

Muzika

Nagrađivanje knjige

Naučna fantastika

Obrada teksta

OFFICE 2013

OpenOffice.org

Operativni sistemi

Oracle

Organizacione nauke

Pedagogija

PHP I MYSQL

Pisci u medijima

Ples

Poezija

Politika

Poljoprivreda

Popularna medicina

Popularna nauka

Popularna psihologija

Posao

Poslovanje

Pozorište

Pravo

Pravoslavlje

Primenjene nauke

Pripovetke

Prirodne nauke

Priručnik

Programiranje

Projektovanje softvera

Psihologija

Publicistika

Putopis

Python programiranje

Računarstvo u oblaku

Raspberry PI

Razvoj

Rečnici

Religija

Robotika

Roman

Ruby i Ruby on Rails

Satira

Saveti

Serija Roberta C. Martina

Sertifikati

Slikarstvo

Socijalna mreža - Facebook

Sociologija

Sport

Sport i hobi

SQL

Statistika

Strip

Tabele

Tableti

Tehnologija

Telekomunikacije

Triler

Turizam

Twitter

Udžbenici

Umetnost

Unix, Linux

Urbanizam

UX DIZAJN

Veštačka inteligencija

Visual Basic .NET, VBA, V. Studio

Web design

Windows

Windows 7

Windows 8

WordPress

Zaštita i sigurnost

Zoologija

 

Vesti – Mašinsko učenje

Ukupno: 19, strana 1 od 1

10 Artificial Intelligence (AI) Technologies that will rule 2018

 

 

 

Artificial Intelligence is changing the way we think of technology. It is radically changing the various aspects of our daily life. Companies are now significantly making investments in AI to boost their future businesses. According to a Narrative Science report, just 38% percent of the companies surveys used artificial intelligence in 2016—but by 2018, this percentage will increase to 62%. Another study performed by Forrester Research predicted an increase of 300% in investment in AI this year (2017), compared to last year. IDC estimated that the AI market will grow from $8 billion in 2016 to more than $47 billion in 2020. “Artificial Intelligence” today includes a variety of technologies and tools, some time-tested, others relatively new. 1. Natural Language Generation Saying (or writing) the right words in the right sequence to convey a clear message that can be easily understood by the listener (or reader) can be a tricky business. For a machine, which processes information in an entirely different way than the human brain does, it can be trickier still. Solving this issue has been the key focus of the burgeoning field of Natural Language Generation (NLG) for years beyond counting. Natural language generation, a field which has made great strides of late, has begun to manifest in many areas of our lives. It is currently being used in customer service to generate reports and market summaries. Sample vendors: Attivio, Automated Insights, Cambridge Semantics, Digital Reasoning, Lucidworks, Narrative Science, SAS, Yseop. 2. Speech recognition Transcribe and transform human speech into format useful for computer applications. Currently used in interactive voice response systems and mobile applications. Every day, more and more systems incorporate the transcription and transformation of human language into useful formats suitable for computers. Companies offering speech recognition services include NICE, Nuance Communications, OpenText and Verint Systems. 3. Machine Learning Platforms These days, computers can also learn, and they can be incredibly intelligent! Machine learning is a subdiscipline of computer science and a branch of artificial intelligence. Its goal is to develop techniques that allow computers to learn. By providing algorithms, APIs (application programming interface), development and training tools, big data, applications and other machines, machine learning platforms are gaining more and more traction every day. They’re currently being used in diverse business activities, mainly for prediction or classification. Companies focused in machine learning include Amazon, Fractal Analytics, Google, H2O. ai, Microsoft, SAS, Skytree. 4. Virtual Agents There’s no denying that virtual agents – or “chat bots” (or simply, bots) – are experiencing a tremendous resurgence in interest, and along with that, a rapid advance in innovation and technology. Currently used in customer service and support and as a smart home manager. Some of the companies that provide virtual agents include Amazon, Apple, Artificial Solutions, Assist AI, Creative Virtual, Google, IBM, IPsoft, Microsoft, Satisfi. 5. Decision Management Intelligent machines are capable of introducing rules and logic to artificial intelligence systems and can be used for initial setup/training, ongoing maintenance and tuning. It is used in a wide variety of enterprise applications, assisting in or performing automated decision-making. Some of the companies that provide this are Advanced Systems Concepts, Informatica, Maana, Pegasystems, UiPath. 6. AI-Optimized Hardware Companies are investing heavily in ML/AI with hardware designs intended to greatly accelerate the next generation of applications. Graphics processing units (GPU) and appliances specifically designed and architected to efficiently run AI-oriented computational jobs. Some of the companies focused on AI-Optimized Hardware includes Alluviate, Cray, Google, IBM, Intel, Nvidia. 7. Deep Learning Platforms Deep learning is the fastest growing field and the new big trend in machine learning. A set of algorithms that use artificial neural networks to learn in multi-levels, corresponding to different levels of abstraction. Some of the applications of deep learning are automatic speech recognition, image recognition/Optical character recognition, NLP, and classification/clustering/prediction of almost any entity that can be sensed & digitized. Deep learning platform services providers and suppliers include Deep Instinct, Ersatz Labs, Fluid AI, MathWorks, Peltarion, Saffron Technology, Sentient Technologies. 8. Robotic Process Automation Robotic processes automation is possible thanks to scripts and methods that mimic and automate human tasks to support corporate processes. It is now being used in special situations where it’s too expensive or inefficient to hire humans for a specific job or task. We need to remember artificial intelligence is not meant to replace humans, but to complement their abilities and reinforce human talent. Some of the companies focused on this include Advanced Systems Concepts, Automation Anywhere, Blue Prism, UiPath, WorkFusion. 9. Text Analytics and NLP Natural language processing (NLP) is concerned with the interactions between computers and human (natural) languages. This technology uses text analytics to understand the structure of sentences, as well as their meaning and intention, through statistical methods and machine learning. They are also being use by a huge array of automated assistants and apps to extract unstructured data. Some of the services providers and suppliers of these technologies include Basis Technology, Coveo, Expert System, Indico, Knime, Lexalytics, Linguamatics, Mindbreeze, Sinequa, Stratifyd and Synapsify. 10. Biometrics This technology deals with the identification, measurement and analysis of physical aspects of the body’s structure and form and human behavior. It allows more natural interactions between humans and machines, including interactions related to touch, image, speech and body language recognition. This technology is currently mostly being used for market research. Suppliers of this technologies include 3VR, Affectiva, Agnitio, FaceFirst, Sensory, Synqera and Tahzoo. ORIGINAL                  
 
   

20 najtraženijih knjiga na Sajmu knjiga u Beogradu PO SAJAMSKIM CENAMA

 

 

 

20 najtraženijih knjiga na Sajmu knjiga u Beogradu PO SAJAMSKIM CENAMA Do 17. novembra traje akcija. Ovo je 20 najtraženijih knjiga na našem štandu: Daleko ispred svih je bila knjiga Osnove veštačke inteligencije i mašinskog učenja. Knjigu/e naručujte korišćenjem korpe. 1. OSNOVE VEŠTAČKE INTELIGENCIJE I MAŠINSKOG UČENJA 2. UVOD U PYTHON - AUTOMATIZOVANJE DOSADNIH POSLOVA 3. C# I . NET CORE PROJEKTNI OBRASCI 4. Laravel - Radni okvir za izradu modernih PHP aplikacija 5. GRAPHQL I REACT FULL-STACK VEB RAZVOJ 6. CCNA ROUTING AND SWITCHING 200-125 7. KALI LINUX - TESTIRANJE NEPROBOJNOSTI VEBA 8. SQL ZA ANALIZU PODATAKA 9. C# 7 i . NET CORE 2 MEĐUPLATFORMSKO PROGRAMIRANJE 10. OBJEKTNO-ORIJENTISAN JAVASCRIPT 11. ANDROID 9, KOTLIN I ANDROID STUDIO U JEDNOJ KNJIZI 12. ADMINISTRIRANJE LINUX SISTEMA - KUVAR 13. WORDPRESS 5 U CELOSTI 14. C++ JEDNA LEKCIJA DNEVNO 15. PHP7, MYSQL I JAVASCRIPT U JEDNOJ KNJIZI 16. NODE. JS, MONGODB I ANGULAR za razvoj veb 17. HTML5, CSS3 I JAVASCRIPT ZA RAZVOJ VEB STRANA 18. AMAZON VEB SERVISI U PRAKSI 19. R ANALIZA PODATAKA II IZDANJE 20. ZAŠTITA OD ZLONAMERNIH PROGRAMA 10% dodatnog popusta za 2 ili više knjiga, osim knjiga koje su u pretplati i kompleta knjiga. AKCIJA TRAJE DO 17. NOVEMBRA.  
 
   

20 pitanja i odgovora - Mašinsko učenje - Potpuno povezani i konvolucioni slojevi

 

 

 

20 pitanja Šta su potpuno povezani slojevi u mašinskom učenju? Kako funkcionišu potpuno povezani slojevi u neuronskim mrežama? Koje su prednosti i mane potpuno povezanih slojeva? Šta su konvolucioni slojevi u mašinskom učenju? Kako funkcionišu konvolucioni slojevi u neuronskim mrežama? Koje su prednosti i mane konvolucionih slojeva? Kako se potpuno povezani slojevi razlikuju od konvolucionih slojeva? U kojim situacijama se koriste potpuno povezani slojevi? U kojim situacijama se koriste konvolucioni slojevi? Kako konvolucioni slojevi doprinose prepoznavanju slika? Kako potpuno povezani slojevi doprinose klasifikaciji podataka? Koji su ključni elementi konvolucionih slojeva? Kako se treniraju konvolucioni slojevi u dubokim neuronskim mrežama? Koje tehnike se koriste za optimizaciju potpuno povezanih slojeva? Koji su izazovi u korišćenju potpuno povezanih slojeva u velikim mrežama? Koji su izazovi u korišćenju konvolucionih slojeva u mrežama za prepoznavanje slika? Kako regularizacija utiče na performanse potpuno povezanih slojeva? Kako regularizacija utiče na performanse konvolucionih slojeva? Koje su najčešće arhitekture koje koriste konvolucione slojeve? Koje su najčešće arhitekture koje koriste potpuno povezane slojeve? Odgovori na pitanja Šta su potpuno povezani slojevi u mašinskom učenju? Potpuno povezani slojevi (fully connected layers) su slojevi u neuronskoj mreži gde je svaki neuron povezan sa svakim neuronom u prethodnom i sledećem sloju. Kako funkcionišu potpuno povezani slojevi u neuronskim mrežama? Potpuno povezani slojevi funkcionišu tako što svaki neuron iz prethodnog sloja šalje svoj izlaz kao ulaz svakom neuronu u sledećem sloju. Svaka veza ima pridruženu težinu koja se optimizuje tokom treninga mreže. Koje su prednosti i mane potpuno povezanih slojeva? Prednosti: Moguće je hvatanje složenih nelinearnih odnosa u podacima. Mane: Imaju veliki broj parametara što može dovesti do pretreniranja i visokih računalnih troškova. Šta su konvolucioni slojevi u mašinskom učenju? Konvolucioni slojevi (convolutional layers) su slojevi koji primenjuju konvoluciju nad ulazom koristeći filtere kako bi ekstrakovali značajke kao što su ivice, teksture i oblici. Kako funkcionišu konvolucioni slojevi u neuronskim mrežama? Konvolucioni slojevi funkcionišu tako što primenjuju set filtera na ulazni podatak. Svaki filter klizi preko ulaza i proizvodi mapu značajki (feature map) koja predstavlja detektovane karakteristike. Koje su prednosti i mane konvolucionih slojeva? Prednosti: Smanjen broj parametara, lokalna povezivanja, automatsko ekstraktovanje značajki. Mane: Može biti složeno za implementaciju i tuning. Kako se potpuno povezani slojevi razlikuju od konvolucionih slojeva? Potpuno povezani slojevi povezuju svaki neuron sa svakim, dok konvolucioni slojevi koriste lokalne veze sa delovima ulaza i dele težine filtera. U kojim situacijama se koriste potpuno povezani slojevi? Potpuno povezani slojevi se često koriste u završnim slojevima neuronskih mreža za klasifikaciju, regresiju i druge zadatke gde je potrebno integrisati sve ekstraktovane značajke. U kojim situacijama se koriste konvolucioni slojevi? Konvolucioni slojevi se koriste u zadacima prepoznavanja slika, video analizi, detekciji objekata i segmentaciji, gde je važno ekstraktovati prostorne i lokalne značajke. Kako konvolucioni slojevi doprinose prepoznavanju slika? Konvolucioni slojevi doprinose prepoznavanju slika tako što automatski uče i detektuju različite značajke kao što su ivice, teksture i kompleksi obrasci koji su ključni za klasifikaciju i prepoznavanje. Kako potpuno povezani slojevi doprinose klasifikaciji podataka? Potpuno povezani slojevi kombinuju ekstraktovane značajke iz prethodnih slojeva i donose konačnu odluku o klasifikaciji baziranu na naučenim parametrima tokom treninga. Koji su ključni elementi konvolucionih slojeva? Ključni elementi uključuju filtere (kernels), stride (korak filtracije), padding (dodavanje margina) i aktivacione funkcije koje se primenjuju na proizvedene mape značajki. Kako se treniraju konvolucioni slojevi u dubokim neuronskim mrežama? Konvolucioni slojevi se treniraju korišćenjem algoritama za optimizaciju kao što je stohastički gradijentni spust (SGD), uz propagaciju greške kroz mrežu koristeći tehniku unazadne propagacije. Koje tehnike se koriste za optimizaciju potpuno povezanih slojeva? Tehnike uključuju različite algoritme za optimizaciju kao što su Adam, RMSProp, L2 regularizacija, Dropout i metode za smanjenje pretreniranja. Koji su izazovi u korišćenju potpuno povezanih slojeva u velikim mrežama? Izazovi uključuju veliki broj parametara koji mogu dovesti do pretreniranja, visoke računalne troškove i potrebu za velikim količinama podataka za efikasan trening. Koji su izazovi u korišćenju konvolucionih slojeva u mrežama za prepoznavanje slika? Izazovi uključuju složenost dizajniranja arhitekture mreže, tuning hiperparametara, računske troškove i potrebu za velikim datasetima za efikasno učenje značajki. Kako regularizacija utiče na performanse potpuno povezanih slojeva? Regularizacija kao što je Dropout ili L2 regularizacija pomaže u smanjenju pretreniranja, čineći model robusnijim i sposobnijim za generalizaciju na neviđene podatke. Kako regularizacija utiče na performanse konvolucionih slojeva? Regularizacija u konvolucionim slojevima pomaže u smanjenju pretreniranja i poboljšava sposobnost mreže da generalizuje na nove podatke, što je posebno važno kod složenih zadataka prepoznavanja. Koje su najčešće arhitekture koje koriste konvolucione slojeve? Najčešće arhitekture uključuju LeNet, AlexNet, VGG, GoogLeNet (Inception), ResNet i mnoge druge moderne varijante koje se koriste za različite zadatke prepoznavanja slika. Koje su najčešće arhitekture koje koriste potpuno povezane slojeve? Najčešće arhitekture koje koriste potpuno povezane slojeve uključuju klasične feedforward mreže, multi-layer perceptrone (MLP) i završne slojeve u kompleksnim modelima kao što su konvolucione i rekurentne neuronske mreže.
 
   

Andrej Drobnjaković i kako naći vremena za ono što je bitno

 

 

 

Za 180 minuta takmičenja, Andrej Drobnjaković je rešio 120 zadataka iz fizike, matematike, biologije i hemije. Uz to, učestvovao je i u timskom inženjerskom izazovu. Njegov trud i znanje doneli su mu zlatne medalje u svim kategorijama, čime je postao apsolutni pobednik međunarodne olimpijade u Singapuru. Andrejev savet: „Mnogi kažu da nemaju vremena, ali se ne potrude da naprave vreme. Važno je da ne gubimo vreme na telefone, na konstantna ometanja. Jedna notifikacija je dovoljna da zasmeta i potpuno poremeti tok mišljenja“, je inspiracija za analizu i akciju. Ključne činjenice Broj zadataka i vreme: Rešio je 120 zadataka za 180 minuta. Takmičarske kategorije: Fizička, matematika, biologija i hemija. Dodatno takmičenje: Timski inženjerski izazov. Osvojene medalje: Pet zlatnih medalja. Gostovanje na N1: Delio svoje iskustvo i motivaciju. Inspiracija: Promena stava prema prirodnim naukama tokom školovanja. Vanškolske aktivnosti: Sviranje klavira i rekreativno plivanje. Ključ uspeha: Dobra organizacija vremena i samodisciplina. Poruka vršnjacima: Važnost izlaska iz zone komfora i izbegavanje gubljenja vremena na telefone i ometanja. Podrška učitelja: Inspiracija učiteljice i nastavnice dovela do mnogih nagrada. Upravljanje vremenom ne samo da povećava produktivnost, već i poboljšava balans između poslovnog i privatnog života. Smanjuje stres, pomaže u postizanju dugoročnih ciljeva i poboljšava kvalitet života. Nasuprot tome, konstantna upotreba telefona i notifikacije negativno utiču na našu koncentraciju, čineći nas manje efikasnim i povećavajući nivo stresa. Prekidanje toka mišljenja uzrokovano notifikacijama može značajno smanjiti kvalitet našeg rada. Povezana pitanja: Zašto je važno upravljati vremenom? Kako korišćenje telefona utiče na produktivnost? Koje su strategije za smanjenje ometanja tokom rada? Šta mladi matematičari preporučuju za bolju koncentraciju? Kako notifikacije utiču na tok mišljenja i produktivnost? Koje su posledice čestih ometanja na kvalitet rada? Koje tehnike pomažu u efikasnom upravljanju vremenom? Kako balansirati upotrebu tehnologije i produktivnost? Šta su najčešći uzroci gubitka vremena među mladima? Koji su benefiti smanjenja vremena provedenog na telefonu? Odgovori na pitanja: Zašto je važno upravljati vremenom? 1. Upravljanje vremenom pomaže u povećanju efikasnosti i produktivnosti. 2. Omogućava bolji balans između poslovnih i privatnih obaveza. 3. Smanjuje stres i anksioznost. 4. Pomaže u postizanju dugoročnih ciljeva. 5. Poboljšava kvalitet života. 6. Omogućava bolje planiranje i organizaciju. 7. Pomaže u izbegavanju prokrastinacije. 8. Omogućava bolju kontrolu nad obavezama. 9. Poboljšava samodisciplinu. 10. Omogućava više slobodnog vremena za hobije i relaksaciju. Kako korišćenje telefona utiče na produktivnost? 1. Česta upotreba telefona može dovesti do čestih ometanja. 2. Notifikacije mogu poremetiti koncentraciju. 3. Oduzima vreme koje bi moglo biti produktivnije iskorišćeno. 4. Može povećati nivo stresa. 5. Smanjuje fokus na trenutne zadatke. 6. Povećava sklonost ka prokrastinaciji. 7. Može dovesti do smanjenja kvaliteta rada. 8. Negativno utiče na sposobnost dubokog razmišljanja. 9. Smanjuje kapacitet za dugoročno pamćenje. 10. Povećava rizik od digitalne zavisnosti. Koje su strategije za smanjenje ometanja tokom rada? 1. Isključivanje notifikacija na telefonu i kompjuteru. 2. Korišćenje aplikacija za fokusiranje poput "Focus@Will". 3. Postavljanje jasnih vremenskih ograničenja za korišćenje tehnologije. 4. Stvaranje mirnog radnog okruženja. 5. Korišćenje tehnike "Pomodoro" za upravljanje vremenom. 6. Postavljanje prioriteta za dnevne zadatke. 7. Praktična primena mindfulness tehnika. 8. Izbegavanje multitaskinga. 9. Pravljenje pauza između radnih sesija. 10. Planiranje radnog dana unapred. Šta mladi matematičari preporučuju za bolju koncentraciju? 1. Redovno vežbanje i fizička aktivnost. 2. Pravilna ishrana bogata nutrijentima. 3. Redovan san i odmor. 4. Praktikovanje meditacije i mindfulness tehnika. 5. Postavljanje jasnih i ostvarivih ciljeva. 6. Održavanje urednog radnog prostora. 7. Korišćenje tehnike "Pomodoro". 8. Smanjenje vremena provedenog na društvenim mrežama. 9. Primenjivanje strategija za upravljanje stresom. 10. Korišćenje mentalnih mapa za organizaciju misli. Kako notifikacije utiču na tok mišljenja i produktivnost? 1. Notifikacije prekidaju fokus i koncentraciju. 2. Povećavaju vreme potrebno za vraćanje u radni ritam. 3. Povećavaju nivo stresa i anksioznosti. 4. Dovode do čestih mentalnih skokova između zadataka. 5. Smanjuju efikasnost obavljanja zadataka. 6. Negativno utiču na kreativno razmišljanje. 7. Povećavaju prokrastinaciju. 8. Mogu uzrokovati osećaj preopterećenosti informacijama. 9. Smanjuju kvalitet obavljenog posla. 10. Omogućavaju lak pristup distrakcijama. Koje su posledice čestih ometanja na kvalitet rada? 1. Smanjenje ukupne produktivnosti. 2. Lošiji kvalitet izvršenih zadataka. 3. Povećanje vremena potrebnog za završavanje posla. 4. Povećanje nivoa stresa. 5. Smanjenje motivacije za rad. 6. Povećanje sklonosti ka greškama. 7. Negativan uticaj na mentalno zdravlje. 8. Smanjenje zadovoljstva poslom. 9. Povećanje osećaja preopterećenosti. 10. Negativan uticaj na timsku dinamiku. Koje tehnike pomažu u efikasnom upravljanju vremenom? 1. Pravljenje liste prioriteta. 2. Korišćenje kalendara i planera. 3. Tehnika "Pomodoro". 4. Postavljanje SMART ciljeva. 5. Delegiranje zadataka. 6. Održavanje urednog radnog prostora. 7. Praktična primena time-blockinga. 8. Eliminisanje nepotrebnih aktivnosti. 9. Praktična primena GTD (Getting Things Done) metodologije. 10. Redovno evaluiranje postignutih ciljeva. Kako balansirati upotrebu tehnologije i produktivnost? 1. Postavljanje vremenskih ograničenja za korišćenje društvenih mreža. 2. Korisćenje aplikacija za blokiranje distrakcija. 3. Redovno pravljenje pauza od ekrana. 4. Fokusiranje na jedan zadatak u isto vreme. 5. Planiranje vremena za digitalni detox. 6. Korisćenje tehnologije za poboljšanje organizacije. 7. Stvaranje rutine koja uključuje offline aktivnosti. 8. Praktična primena tehnika mindfulness-a. 9. Prilagođavanje postavki telefona i računara za manje ometanja. 10. Održavanje ravnoteže između online i offline života. Šta su najčešći uzroci gubitka vremena među mladima? 1. Prekomerna upotreba društvenih mreža. 2. Konstantne notifikacije i ometanja. 3. Nedostatak jasnih ciljeva i prioriteta. 4. Prokrastinacija. 5. Nedostatak organizacionih veština. 6. Previše multitaskinga. 7. Nedovoljno planiranja vremena. 8. Digitalna zavisnost. 9. Nedostatak motivacije. 10. Prekomerno konzumiranje medijskih sadržaja. Koji su benefiti smanjenja vremena provedenog na telefonu? 1. Povećana produktivnost. 2. Bolja koncentracija i fokus. 3. Smanjen nivo stresa. 4. Bolje upravljanje vremenom. 5. Povećana kreativnost. 6. Poboljšanje kvaliteta sna. 7. Više vremena za fizičku aktivnost i hobije. 8. Poboljšanje mentalnog zdravlja. 9. Bolji odnosi sa porodicom i prijateljima. 10. Povećanje opšteg zadovoljstva životom.
 
   

Dobro došli na 66. Sajam knjiga u Beogradu

 

 

 

Zadovoljstvo nam je da vas obavestimo da će se Sajam knjiga u Beogradu održati od 21. do 29. oktobra 2023. godine. Kao i prethodne godine, naš štand će biti na istoj lokaciji - na galeriji Hale I. Pokretne stepenice rade. NA SAJMU KNJIGA SAJAMSKE CENE. DODATNI POPUST OD 10% ZA KUPOVINU 2 I VIŠE KNJIGA. O prošlog sajma smo objavili sledeće knjige: 1.  ChatGPT od početnika do profesionalca 2.  JavaScript projektni obrasci, prevod drugog izdanja 3.  Unity 2022 razvoj mobilnih igara 4.  Kotlin za Android aplikacije, prevod 2. izdanja 5.  PowerShell, praktična automatizacija 6.  Python intenzivni kurs, prevod 3. izdanja 7.  Podacijska pismenost (Data Literacy) 8.  AutoCAD 2023, 2D crtanje i 3D modelovanje 9.  Rust veb razvoj 10 Kali Linux: Napredno penetraciono testiranje pomoću alata Nmap, Metasploit, Aircrack-ng i Empire 11.  React i React Native: Izgradnja međuplatformskih JavaScript aplikacija 12.  KOD, skriveni jezik kompjuterskog hardvera i softvera, prevod drugog izdanja 13.  Otkrijte skrivena blaga Microsoft Excela  Tri najtraženije knjige u pretplati ove godine su bile: Python intezivni kurs ChatGPT od početnika do profesionalca React i React native Dodatni popust za 2 i više kupljenih knjiga I ove godine odobravamo 10% dodatnog popusta ukoliko kupite 2 ili više knjiga. Plaćanje Na našem štandu knjige možete da platite karticom ili gotovinom. Spisak svih knjiga OD POSLEDNJE IZAŠLE KNJIGE Hvala vam što kupovinom knjiga podržavate našu izdavačku delatnost. Vidimo se na Sajmu.    
 
   

Learning Machine Learning and NLP from 187 Quora Questions

 

 

 

  Quora has become a great resource for machine learning. Many top researchers are active on the site answering questions on a regular basis. Here are some of the main AI-related topics on Quora. If you have a Quora account, you can subscribe to these topics to customize your feed. Computer-Science (5. 6M followers) Machine-Learning (1. 1M followers) Artificial-Intelligence (635K followers) Deep-Learning (167K followers) Natural-Language-Processing (155K followers) Classification-machine-learning (119K followers) Artificial-General-Intelligence (82K followers) Convolutional-Neural-Networks-CNNs (25K followers) Computational-Linguistics (23K followers) Recurrent-Neural-Networks (17. 4K followers) While Quora has FAQ pages for many topics (e. g. FAQ for Machine Learning), they are far from comprehensive. In this post, I’ve tried to provide a more thorough Quora FAQ for several machine learning and NLP topics. Quora doesn’t have much structure, and many questions you find on the site are either poorly answered or extremely specific. I’ve tried to include only popular questions that have good answers on general interest topics. Machine Learning How do I learn machine learning? What is machine learning? What is machine learning in layman’s terms? What is the difference between statistics and machine learning? What machine learning theory do I need to know in order to be a successful machine learning practitioner? What are the top 10 data mining or machine learning algorithms? What exactly is a “hyperparameter” in machine learning terminology? How does a machine-learning engineer decide which neural network architecture (feed-forward, recurrent or CNN) to use to solve their problem? What’s the difference between gradient descent and stochastic gradient descent? How can I avoid overfitting? What is the role of the activation function in a neural network? What is the difference between a cost function and a loss function in machine learning? What is the difference between a parametric learning algorithm and a nonparametric learning algorithm? What is regularization in machine learning? What is the difference between L1 and L2 regularization? What is the difference between Dropout and Batch Normalization? What is an intuitive explanation for PCA? When and where do we use SVD? What is an intuitive explanation of the relation between PCA and SVD? Which is your favorite Machine Learning algorithm? What is the future of machine learning? What are the Top 10 problems in Machine Learning for 2017? Classification What are the advantages of different classification algorithms? What are the advantages of using a decision tree for classification? What are the disadvantages of using a decision tree for classification? What are the advantages of logistic regression over decision trees? How does randomization in a random forest work? Which algorithm is better for non linear classification? What is the difference between Linear SVMs and Logistic Regression? How can l apply an SVM for categorical data? How do I select SVM kernels? How is root mean square error (RMSE) and classification related? Why is “naive Bayes” naive? Regression How would linear regression be described and explained in layman’s terms? What is an intuitive explanation of a multivariate regression? Why is logistic regression considered a linear model? Logistic Regression: Why sigmoid function? When should we use logistic regression and Neural Network? How are linear regression and gradient descent related? What is the intuition behind SoftMax function? What is softmax regression? Supervised Learning What is supervised learning? What does “supervision” exactly mean in the context of supervised machine learning? Why isn’t supervised machine learning more automated? What are the advantages and disadvantages of a supervised learning machine? What are the main supervised machine learning methods? What is the difference between supervised and unsupervised learning algorithms? Reinforcement Learning How do I learn reinforcement learning? What’s the best way and what are the best resources to start learning about deep reinforcement learning? What is the difference between supervised learning and reinforcement learning? How does one learn a reward function in Reinforcement Learning (RL)? What is the Future of Deep Reinforcement Learning (DL + RL)? Is it possible to use reinforcement learning to solve any supervised or unsupervised problem? What are some practical applications of reinforcement learning? What is the difference between Q-learning and R-learning? In what way can Q-learning and neural networks work together? Unsupervised Learning Why is unsupervised learning important? What is the future of deep unsupervised learning? What are some issues with Unsupervised Learning? What is unsupervised learning with example? Why could generative models help with unsupervised learning? What are some recent and potentially upcoming breakthroughs in unsupervised learning? Can neural networks be used to solve unsupervised learning problems? What is the state of the art of Unsupervised Learning, and is human-likeUnsupervised Learning possible in the near future? Why is reinforcement learning not considered unsupervised learning? Deep Learning What is deep learning? What is the difference between deep learning and usual machine learning? As a beginner, how should I study deep learning? What are the best resources to learn about deep learning? What is the difference between deep learning and usual machine learning? What’s the most effective way to get started with Deep Learning? Is there something that Deep Learning will never be able to learn? What are the limits of deep learning? What is next for deep learning? What other ML areas can replace deep learning in the future? What is the best back propagation (deep learning) presentation for dummies? Does anyone ever use a softmax layer mid-neural network rather than at the end? What’s the difference between backpropagation and backpropagation through time? What is the best visual explanation for the back propagation algorithm for neural networks? What is the practical usage of batch normalization in neural networks? In layman’s terms, what is batch normalisation, what does it do, and why does it work so well? Does using Batch Normalization reduce the capacity of a deep neural network? What is an intuitive explanation of Deep Residual Networks? Is fine tuning a pre-trained model equivalent to transfer learning? What would be a practical use case for Generative models? Is cross-validation heavily used in Deep Learning or is it too expensive to be used? What is the importance of Deep Residual Networks? Where is Sparsity important in Deep Learning? Why are Autoencoders considered a failure? In deep learning, why don’t we use the whole training set to compute the gradient? Convolutional Neural Networks What is a convolutional neural network? What is an intuitive explanation for convolution? How do convolutional neural networks work? How long will it take for me to go from machine learning basics to convolutional neural network? Why are convolutional neural networks well-suited for image classification problems? Is a pooling layer necessary in CNN? Can it be replaced by convolution? How can the filters used in Convolutional Neural Networks be optimized or reduced in size? Is the number of hidden layers in a convolutional neural network dependent on size of data set? How can convolutional neural networks be used for non-image data? Can I use Convolution neural network to classify small number of data, 668 images? Why are CNNs better at classification than RNNs? What is the difference between a convolutional neural network and a multilayer perceptron? What makes convolutional neural network architectures different? What’s an intuitive explanation of 1x1 convolution in ConvNets? Why does the convolutional neural network have higher accuracy, precision, and recall rather than other methods like SVM, KNN, and Random Forest? How can I train Convolutional Neural Networks (CNN) with non symmetric images of different sizes? How can l choose the dimensions of my convolutional filters and pooling in convolutional neural network? Why would increasing the amount of training data decrease the performance of a convolutional neural network? How can l explain that applying max-pooling/subsampling in CNN doesn’t cause information loss? How do Convolutional Neural Networks develop more complex features? Why don’t they use activation functions in some CNNs for some last convolution layers? What methods are used to increase the inference speed of convolutional neural networks? What is the usefulness of batch normalization in very deep convolutional neural network? Why do we use fully connected layer at the end of a CNN instead of convolution layers? What may be the cause of this training loss curve for a convolution neural network? The convolutional neural network I’m trying to train is settling at a particular training loss value and a training accuracy just after a few epochs. What can be the possible reasons? Why do we use shared weights in the convolutional layers of CNN? What are the advantages of Fully Convolutional Networks over CNNs? How is Fully Convolutional Network (FCN) different from the original Convolutional Neural Network (CNN)? Recurrent Neural Networks Artificial Intelligence: What is an intuitive explanation for recurrent neural networks? How are RNNs storing ‘memory’? What are encoder-decoder models in recurrent neural networks? Why do Recurrent Neural Networks (RNN) combine the input and hidden state together and not seperately? What is an intuitive explanation of LSTMs and GRUs? Are GRU (Gated Recurrent Unit) a special case of LSTM? How many time-steps can LSTM RNNs remember inputs for? How does attention model work using LSTM? How do RNNs differ from Markov Chains? For modelling sequences, what are the pros and cons of using Gated Recurrent Units in place of LSTMs? What is exactly the attention mechanism introduced to RNN (recurrent neural network)? It would be nice if you could make it easy to understand! Is there any intuitive or simple explanation for how attention works in the deep learning model of an LSTM, GRU, or neural network? Why is it a problem to have exploding gradients in a neural net (especially in an RNN)? For a sequence-to-sequence model in RNN, does the input have to contain only sequences or can it accept contextual information as well? Can “generative adversarial networks” be used in sequential data in recurrent neural networks? How effective would they be? What is the difference between states and outputs in LSTM? What is the advantage of combining Convolutional Neural Network (CNN) and Recurrent Neural Network (RNN)? Which is better for text classification: CNN or RNN? How are recurrent neural networks different from convolutional neural networks? Natural Language Processing As a beginner in Natural Language processing, from where should I start? What is the relation between sentiment analysis, natural language processing and machine learning? What is the current state of the art in natural language processing? What is the state of the art in natural language understanding? Which publications would you recommend reading for someone interested in natural language processing? What are the basics of natural language processing? Could you please explain the choice constraints of the pros/cons while choosing Word2Vec, GloVe or any other thought vectors you have used? How do you explain NLP to a layman? How do I explain NLP, text mining, and their difference in layman’s terms? What is the relationship between N-gram and Bag-of-words in natural language processing? Is deep learning suitable for NLP problems like parsing or machine translation? What is a simple explanation of a language model? What is the definition of word embedding (word representation)? How is Computational Linguistics different from Natural Language Processing? Natural Language Processing: What is a useful method to generate vocabulary for large corpus of data? How do I learn Natural Language Processing? Natural Language Processing: What are good algorithms related to sentiment analysis? What makes natural language processing difficult? What are the ten most popular algorithms in natural language processing? What is the most interesting new work in deep learning for NLP in 2017? How is word2vec different from the RNN encoder decoder? How does word2vec work? What’s the difference between word vectors, word representations and vector embeddings? What are some interesting Word2Vec results? How do I measure the semantic similarity between two documents? What is the state of the art in word sense disambiguation? What is the main difference between word2vec and fastText? In layman terms, how would you explain the Skip-Gram word embedding model in natural language processing (NLP)? In layman’s terms, how would you explain the continuous bag of words (CBOW) word embedding technique in natural language processing (NLP)? What is natural language processing pipeline? What are the available APIs for NLP (Natural Language Processing)? How does perplexity function in natural language processing? How is deep learning used in sentiment analysis? Generative Adversarial Networks Was Jürgen Schmidhuber right when he claimed credit for GANs at NIPS 2016? Can “generative adversarial networks” be used in sequential data in recurrent neural networks? How effective would they be? What are the (existing or future) use cases where using Generative Adversarial Network is particularly interesting? Can autoencoders be considered as generative models? Why are two separate neural networks used in Generative Adversarial Networks? What is the advantage of generative adversarial networks compared with other generative models? What are some exciting future applications of Generative Adversarial Networks? Do you have any ideas on how to get GANs to work with text? In what way are Adversarial Networks related or different to Adversarial Training? What are the pros and cons of using generative adversarial networks (a type of neural network)? Can Generative Adversarial networks use multi-class labels? Robbie Allen  Startup Founder & Author turned PhD Student @UNCCS focused on Artificial Intelligence. Founder & Chairman @AInsights. Writing at http://unsupervisedmethods. com Jul 28 ORIGINAL
 
   

Na današnji dan, 13. marta

 

 

 

Iz istorije računarstva: Na današnji dan, 13. marta 1986. godine, Microsoft, kompanija osnovana skoro jedanaest godina ranije, izašla je na berzu NASDAQ. Početna cena deonice bila je 28 dolara po deonici, čime je kompanija za samo jedan dan prikupila gotovo 61 milion dolara. Da ste 13. marta 1986. kupili deonicu po ceni od 21 dolar, vaša investicija bi 2012. godine vredela približno 4. 000 dolara. ------ 1325. - Asteci su osnovali svoju naseobinu Tenočtitlan, kasnije prestonicu Asteškog carstva, na mestu gde je današnji grad Sijudad Meksiko. 1567. - Nemački plaćenici koje je unajmila holandska vladarka Margareta od Parme ubili su 2. 000 kalvinista. 1572. - U Starigradu na ostrvu Hvar umro je Petar Hektorović, autor speva "Ribanje i ribarsko prigovaranje", izuzetno vrednog književno-istorijskog dokumenta, u kojem je Hektorović, pored autobiografskih zabeležio i dragocene etnografske podatke, kao i neke narodne lirske i epske pesme, među kojima i srpsku narodnu pesmu "Kraljević Marko i brat mu Andrijaš". Preveo je spev "Remedia amoris" rimskog pesnika Ovidija (Ovidius). 1781. - Engleski astronom nemačkog porekla Vilijam Heršel (William Hershel) otkrio je sedmu planetu Sunčevog sistema, koja je kasnije nazvana Uran. 1809. - Posle neuspeha u ratu s Rusijom i Danskom 1808, oficirskom zaverom zbačen je s prestola švedski kralj Gustav IV. 1848. - Pod pritiskom demonstracija i pobune u Beču austrijski kancelar Klemens Meternih (Metternich) podneo je ostavku. Kancelar je pobegao u Veliku Britaniju, a hiljadama gnevnih Bečlija koje su opkolile dvor car Ferdinand I je obećao ustav. 1865. - Tokom Američkog građanskog rata Kongres Konfederacije, pod predsednikom Džefersonom Dejvisom (Jefferson Devis), žestokim protivnikom ukidanja ropstva, doneo je zakon kojim je robovima dozvoljeno, u zamenu za slobodu, da budu vojnici u južnjačkoj armiji. 1881. - U atentatu u Petrogradu ubijen je ruski car Alksandar II. Atentat su izvršili članovi tajnog terorističkog udruženja "Narodna volja". 1906. - Umrla je Suzan Entoni (Susan Anthony), začetnica i vođa pokreta za prava žena u SAD. Napisala je "Istoriju ženskog prava glasa". 1913. - Kanbera je postala glavni grad Australije. 1928. - Posle pucanja brane "St. Frensis", oko 60 kilometara severno od Los Anđelesa, u vodi koja je preplavila dolinu utopilo se više od 450 ljudi. 1946. - Pripadnici jugoslovenske službe Državne bezbednosti uhapsili su generala i komandanta kraljevske vojske u Drugom svetskom ratu Dragoljuba Dražu Mihailovića. Na suđenju pred Vojnim sudom u Beogradu Mihailović je osuđen na smrt zbog izdaje. Streljan je 17. jula iste godine. 1972. - Velika Britanija i Kina saglasile su se da razmene ambasadore 22 godine pošto je London priznao vladu u Pekingu; Britanci su zatvorili konzulat na Tajvanu. 1975. - Umro je Ivo Andrić, jedan od najvećih jugoslovenskih pisaca 20. veka, čije je delo donelo ugled i međunarodno priznanje jugoslovenskoj književnosti. On je jedini jugoslovenski književnik dobitnik Nobelove nagrade za književnost (1961) ("Edž ponto", "Znakovi", "Na Drini ćuprija", "Travnička hronika", "Gospođica", "Prokleta avlija").   Znakovi pored puta Ova "knjige mudrosti", "vrsta intimnih dnevnika", koje je Andrić pisao celog života, smatraju se jedinstvenim u našoj književnosti i stoga jer je pisac u njima prvi put nedvosmisleno progovorio o sebi. Naručite knjigu i pratite znakove Beogradske priče Oslobodimo li se predrasuda, ostajući na tragu osobenosti Andrićevog pripovedačkog postupka, možemo sklopiti skicu jedne posebne literarne građevine, takozvane beogradske hronike. PORUČITE Priče o deci Svaka od ovih priča dirljiva je apoteoza dečijem mikrokosmosu i izraz života u jednom individualnom svetu, dokaz bogatstva toga sveta, njegove angažovanosti ili pasivnosti, agresivnosti ili produhovljenosti. PORUČITE Priče o moru Prizori kamenih zidina starih gradova ovenčanih mediteranskim rastinjem, večna muzika šuma talasa, škrgutanje šljunka, zveckanje zagonetnih nanosa plime, miris morskog vazduha. . . PORUČITE Priče o osobenjacima i malim ljudima Priče o osobenjacima i malim ljudima otkrivaju Andrićevo pripovedačko umeće da se kloni stereotipa i da svoje junake pronalazi u svetu drugačijem i različitom od onog koji ih okružuje. PORUČITE Sarajevske priče Na istorijskoj pozadini burne 1878. godine, društvenih previranja 1906. godine ili razaranja tokom Drugog svetskog rata, Andrić prati svoje junake, njihove pojedinačne, uzbudljive i najčešće tragične sudbine, te promene na emotivnoj mapi njihovog postojanja. PORUČITE Turske priče Orijent je divno čudo i najveći užas, jer u njemu granica između smrti i života nije jasno određena, nego krivuda i treperi. PORUČITE   1990. - Sovjetski parlament izglasao je uvođenje višepartijskog sistema, nakon 72-godišnjeg monopola na vlast Komunističke partije. 1992. - U zemljotresu na istoku Turske je poginulo najmanje 570 ljudi. 1995. - U Beogradu je u 72. godini umro popularni pozorišni i filmski glumac Mija Aleksić. 1996. - U mestu Danblejn, oko 40 kilometara severno od Glazgova, naoružani čovek je u gimnastičkoj sali osnovne škole ubio 16 učenika prvog razreda, uzrasta između pet i šest godina i njihovu učiteljicu, ranio još 13 đaka i potom izvršio samoubistvo. 1998. - Predsednik Južne Koreje Kim Dae Džong, koji je i sam bio zatvaran zbog političkih uverenja, doneo je odluku o masovnoj amnestiji koja je obuhvatila preko pet miliona osoba, od političkih zatvorenika do pijanih vozača kojima su bile oduzete vozačke dozvole. 1999. - Na Kosovu, u eksplozijama bombi u centru Podujeva i na pijaci u Kosovskoj Mitrovici poginulo je šestoro i ranjeno više od 50 ljudi, a u napadima oružane formacije kosovskih Albanaca "Oslobodilačka vojska Kosova" kod Vučitrna poginula su dva pripadnika Vojske Jugoslavije. 2001. - Bivši gradonačelnik Bosanskog Šamca Blagoje Simić, protiv koga je Međunarodni sud za ratne zločine podigao optužnicu 1995. za zločine počinjene tokom rata u BiH 1992-95, dobrovoljno se predao sudu. 2002. - Vlada Angole je proglasila jednostrano primirje u 27-godišnjem građanskom ratu sa pobunjenicima-pripadnicima Nacionalne Unije za nezavisnost Angole (UNITA). 2004. - Umro je austrijski kardinal Franc Kenig (Franz Koenig), poznat po zalugama u povezivanju vera. On je godinama radio na uspostavljanju veza između Vatikana i komunističkih država. Na njegovu inicijativu 1964. godine osnovana je Fondacija "Pro orijente", koja se bavi dijalogom između rimokatoličke i pravoslavne crkve.   2004. - Umrla Marina Koljubajeva, filmska i TV glumica (Beograd, 02. 11. 1950 - Beograd, 13. 03. 2004) 2005. - Umro Aleksandar Atanacković, fudbaler, reprezentativac (Beograd, 29. 04. 1920 - Beograd 13. 03. 2005) 2008. - Umro Živko Šoklovački, pravnik, političar, šef poslaničke grupe Jugoslovenske levice u Skupštini SFRJ, predsednik Upravnog Odbora NIS-a (Kikinda, 1946 - Novi Sad, 13. 03. 2008) IZVOR.
 
   

Na današnji dan, 15. februara Sretenjski ustav i džez pevač Kol

 

 

 

Na današnji dan, 15. februara 1934. godine, rođen je Nikolaus Virt (Niklaus Wirth), čuveni švajcarski informatičar i pronalazač programskog jezika Pascal. Njegovo mesto rođenja je Vinterur, grad u Švajcarskoj. Virtova akademska karijera počinje diplomiranjem na Univerzitetu Laval 1960. godine, nakon čega nastavlja da gradi svoje obrazovanje na Univerzitetu u Kaliforniji, Berkli, gde je 1963. godine doktorirao. U periodu između 1963. i 1967. godine, Virt je bio član akademskog osoblja na Univerzitetu Stanford, gde je predavao i delio svoja znanja i iskustva sa studentima. Nakon toga, 1967. godine, prelazi na Univerzitet u Cirihu, gde je do 1975. godine obavljao funkciju profesora računarskih nauka. Svoju akademsku karijeru nastavio je 1975. godine na prestižnom Saveznom institutu za tehnologiju u Cirihu, gde je takođe predavao računarske nauke. Virt je posebno poznat po svom doprinosu u razvoju programskih jezika, među kojima se posebno ističe Pascal, jezik koji je značajno uticao na oblast računarstva i programiranja. Njegov rad na ovom jeziku i drugim projektima u oblasti informatike značajno je doprineo razvoju i napretku računarskih tehnologija. -------- 1115. - Papa Paskal II priznao je red Malteških vitezova osnovanu Jerusalimu, gde su pored crkve Svetog Jovana imali samostan i azil za bolesnike i putnike. Kasnije su dobili zadatak da brane Svetu zemlju. 1573. - U Zagrebu je, nakon sloma seljačke bune, pogubljen vođaustanka Matija Gubec. 1763. - Mirovnim ugovorom u Hubertsburgu okončana suneprijateljstva Austrije i Pruske u Sedmogodišnjem ratu. Pruska je zadržala Šleziju koju je preuzela od Austrije i postala je jedna od vodećih evropskih vojnih sila. 1835. - U Kneževini Srbiji usvojen je Sretenjski ustav, prviustav u modernoj srpskoj istoriji. Napisao ga je sekretar kneza Miloša Obrenovića Dimitrije Davidović, po uzoru na francuski i belgijski ustav. Koristeći negodovanje Austrije i Rusije, koje nisu imale razumevanja za liberalizam Davidovićevog dokumenta, knez je u martu ukinuo ustav. 1857. - Umro je ruski kompozitor Mihail Ivanovič Glinka, tvoracruskog nacionalnog stila romantičarske epohe. Njegove opere "Život za cara" i "Ruslan i Ljudmila" imale su značajan uticaj na razvoj ruske opere u 19. veku. 1922. - U Hagu je održana prva sednica stalnog Međunarodnog sudapravde koji je 1920. osnovala Liga naroda radi rešavanja sporova među državama. Novi Međunarodni sud osnovan je pri Ujedinjenim nacijama posle Drugog svetskog rata kada je ukinuta Liga naroda. 1928. - Iz Beograda prema Zagrebu poleteo je prvi avion jugoslovenske civilne avijacije "Potez 29-2", jedina letelica prve jugoslovenske avio-kompanije "Aeroput". Prvi putnici bili su direktor avio-kompanije i pet novinara. 1942. - Umro je srpski kompozitor i dirigent Stanislav Binički,autor "Marša na Drinu", direktor Beogradske opere (1920-25). Godine 1899. osnovao je Beogradski vojni orkestar, a sa Stevanom Mokranjcem Srpsku muzičku školu. Komponovao je prvu izvedenu srpsku operu "Na uranku" (1903), na tekst Branislava Nušića. 1942. - Procenivši da nisu u stanju da odbrane grad, Britanci suu Drugom svetskom ratu predali Singapur japanskim snagama. To se smatra najvećim vojnim porazom Velike Britanije u njenoj vojnoj istoriji. 1944. - Američke trupe su u Drugom svetskom ratu zauzeleSolomonska ostrva u Pacifiku. Britanski avioni izbacili su oko 1. 000 bombi na Berlin. 1952. - Rođen je Tomislav Nikolić. Tomislav Nikolić (Kragujevac, 15. februar 1952) je srpski političar, predsednik Republike Srbije, osnivač i prvi predsednik Srpske napredne stranke, bivši predsednik Narodne skupštine Republike Srbije i bivši potpredsednik vlade Srbije i Savezne Republike Jugoslavije. [1] Jedan je od osnivača Srpske radikalne stranke, čiji je bio potpredsednik, a kasnije i zamenik predsednika, Vojislava Šešelja. Kada se Šešelj februara 2003. godine dobrovoljno predao Haškom tribunalu, preuzeo je vođstvo Radikalne stranke. Tri puta kandidat na predsedničkim izborima u Srbiji (2003, 2004, 2008), i jednom kandidat za predsednika SR Jugoslavije (2000). Na predsedničkim izborima u Srbiji 2012. godine je odneo pobedu nad kandidatom Demokratske stranke, Borisom Tadićem. 1965. - Umro je popularni američki džez pevač i pijanist Nat King Kol (Cole). 1971. - Velika Britanija je prešla na decimalni novčani sistem,umesto dotadašnjih funti, šilinga i penija. 1988. - Predsednik Austrije Kurt Valdhajm (Waldheim), optužen daje, kao pripadnik Š jedinica u Drugom svetskom ratu, odgovoran za ratne zločine počinjen u Bosni i Grčkoj, odbio je da podnese ostavku. 1989. - Deset godina nakon što je Moskva poslala svoje trupe dapodrže prokomunističku vladu u Kabulu, poslednji sovjetski vojnici napustili su Avganistan. U desetogodišnjem neobjavljenom ratu poginulo je 15. 000 sovjetskih vojnika i najmanje 100. 000 Avganistanaca. 1990. - Velika Britanija i Argentina obnovile su diplomatskeodnose, prekinute 1982. u vreme rata za Foklandska ostrva. 1993. - Slovački parlament izabrao je ekonomistu Mihala Kovača(Michal Kovac) za prvog predsednika novoformirane države Slovačke, nakon raspada Čehoslovačke. 1996. - Bosanska vlada je saopštila da je u ratu 1992-95. nestalooko 30. 000 ljudi, od čega preko 22. 000 civila i oko 2. 500 pripadnika oružanih snaga. 1997. - Srpska opoziciona koalicija "Zajedno" održala jeposlednji, 88. dan protesta pošto je 11. februara ispunjen njen osnovni zahtev - priznavanje rezultata lokalnih izbora u Srbiji iz novembra 1996. 1999. - U Keniji je uhapšen lider kurdskih pobunjenika AbdulahOdžalan (Ocalan) i isporučen Turskoj, gde je osuđen na smrt zbog izdaje i prebačen u ostrvski zatvor Imrali. 2002. - Predsednik SAD Džordž Buš (Georges Bush) objavio je danjegova zemlja ima alternativni plan za smanjenje emisije gasova, koje je regulisano Protokolom o globalnom zagrevanju u Kjotou 1997. Iako emituju četvrtinu količine gasova koji stvaraja efekat "staklene bašte", SAD su odbacile Protokol iz Kjotoa zbog štete po nacionalnu industriju. 2003. - U talasu demonstracija, najvećim od vijetnamskog rata,više od šest miliona ljudi, u više od 600 gradova u svetu, protestovalo je protiv rata u Iraku. 2003. - Vatikan je otvorio zapečaćenu arhivu o vezama te državesa Nemačkom između 1922. i 1939. godine, kada je Euđenio Pačeli (kasnije Papa Pije XII), bio državni sekretar Vatikana. Otvaranje arhiva usledilo je kao odgovor kritičarima Pape da nije dovoljno učinio da zaustavi ubijanje miliona Jevreja od strane nacističke Nemačke tokom holokausta. 2004. - U Kini je pogubljen Jang Ksinhai (Yang Xinhai), jedan odnajvećih serijskih ubica, čovek koji je za četiri godine ubio 67 osoba i silovao 12 žena. 2012. - Google je promenio logo u čast Srbije: GOOGLE - СРБИЈА. 2014. Google i Dan državnosti 2018. Gugl dudl i Dan državnosti Srbije
 
   

Na današnji dan, 16. februara Radoje Domanović i Isidora Sekulić

 

 

 

Na današnji dan, 16. februara 2016. godine, Apple je odbio sudski nalog za kreiranje "backdoor" pristupa u iPhone koji je koristio napadač iz San Bernardina, Syed Farook. U danima koji su usledili, generalni direktor Apple-a Tim Cook izjavio je da kompanija "nema toleranciju niti simpatije prema teroristima", ali da je "na kocki sigurnost podataka stotina miliona zakonitih ljudi i uspostavljanje opasnog presedana koji preti građanskim slobodama svih nas". FBI je na kraju uspeo da otključa telefon bez pomoći kompanije Apple.   ------- 1871. - Rođen je srpski pisac Radoje Domanović, najveći srpski satiričar, Od 1905. do smrti 1908. bio je šef korektora Državne štamparije u Beogradu. Uređivao je satirični list "Stradija". Dela: "Stradija", "Vođa", "Danga", "Mrtvo more", "Kraljević Marko po drugi put među Srbima". 1877. - Rođena je srpska književnica Isidora Sekulić, član Srpske akademije nauka i umetnosti. Kritičari je smatraju klasikom srpske književnosti. Završila je Viši pedagogijum u Budimpešti i doktorirala u Nemačkoj. Bila je nastavnica i upravnica devojačke škole u Pančevu, zatim profesor gimnazije u Beogradu. Bila je poynavalac mnogih jezika i izvrstan prevodilac, a naročito je mnogo prevodila sa engleskog. Dela: putopis "Pisma iz Norveške", roman "Đakon Bogorodičine crkve", pripovetke "Hronika palanačkog groblja", "Saputnici", "Gospa Nola", eseji "Analitički trenuci i teme", "Zapisi o mome narodu", "Mir i nemir", "Njegošu - knjiga duboke odanosti", "Govor i jezik - kulturna smotra naroda". 1926. - Rodjen je Džon Šlezindžer ili Šlezinger (John Schlesinger), američki filmski režiser. 1933. - U strahu od sve češćih nemačkih pretnji, Jugoslavija, Čehoslovačka i Rumunija reorganizovale su odbrambeni savez Malu Antantu, koja je dobila stalni Savet sastavljen od ministara inostranih poslova. Nemačka okupacija Čehoslovačke u martu 1939. praktično je ugasila savez, koji je saradnjom Jugoslavije i Rumunije još neko vreme životario, ali je sa slomom Jugoslavije u Drugom svetskom ratu, posle napada nacističke Nemačke u aprilu 1941, definitivno prestao da postoji. 1937. - Potenstiran je najlon, orig. nylon, novi veštački materijal koji je brzo ušao u široku upotrebu. 1940. - Britanski razarači napali su "Altmark", nemački ratni brod, u jednom norveškom fjordu i oslobodili oko 300 zarobljenih engleskih moranara. Nemci su objavili da su Englezi povredili norvešku neutralnost i izvršili agresivan napad na Norvešku. 1945. - Prvi put je fotografisan Uranov mesec Miranda. 1946. - Testiran je prvi helikopter u komercijalne svrhe. 1959. - Fidel Kastro proglasio je sebe premijerom Kube. Kastro je rođen 1927. godine, a već sa dvadeset godina učestvovao je u pokušaju obaranja diktature Truhilja u Dominikanskoj Republici. Kada se Batista 1952. godine proglasio za kubanskog diktatora, Kastro je digao ustanak u provinciji Orijente, ali je uhapšen i osuđen na 15 godina robije. Već 1955. je pomilovan i sa grupom od 80 demokratskih pristalica osniva Pokret za borbu za politička i socijalna prava kubanskog naroda. Pokret se omasovio u celoj Kubi i vodio borbu portiv Batiste do njegovog beksta iz Kube 1. januara 1959. godine, kada je Kastro preuzeo vlast na celoj teritoriji. Kastro je i danas na vlasti u Kubi, prvoj komunističkoj zemlji u zapadnoj hemisferi. 1961. - Kina je upotrebila svoj prvi nuklearni reaktor. 1994. - Ruske trupe se pridružuju snagama Ujedinjenih nacija u ratom zahvaćenim oblastima bivše Jugoslavije.   IZVOR.  
 
   

Na današnji dan, 23. februara Kits i Zola

 

 

 

Na današnji dan, 23. februara 1905. godine, u Berkliju, Kalifornija, rođen je Derik Lemer (Derrick Lehmer), jedan od svetski poznatih teoretičara brojeva, posebno u oblasti proučavanja prostih brojeva. Pre Drugog svetskog rata, Lemer je razvio niz elektromehaničkih uređaja, poznatih kao Lemerova sita, koja su bila namenjena za efikasno pronalaženje prostih brojeva. Ovi uređaji su bili među prvim elektromehaničkim alatima koji su se koristili u matematičkim istraživanjima, a njihova efikasnost u pronalaženju prostih brojeva bila je revolucionarna za to vreme. Lemerovi doprinosi teoriji prostih brojeva su bili mnogobrojni i značajni, obuhvatajući ne samo razvoj matematičkih alata i tehnika, već i dublje teoretsko razumevanje prirode prostih brojeva. Prosti brojevi su, po definiciji, brojevi veći od 1 koji nemaju drugih delilaca osim 1 i samih sebe. Ova jednostavna definicija krije izuzetno kompleksno i fascinantno polje istraživanja koje ima ključnu ulogu u modernoj matematici i tehnologiji, posebno u kriptografiji, gde se veliki prosti brojevi koriste za enkripciju podataka.   ------------ 1574. - U Francuskoj je izbio peti verski rat između katolika i hugenota (protestanata). Hugenotski ratovi potresali su Francusku do početka 18. veka, a punu ravnopravnost hugenoti su stekli tek nakon Francuske revolucije 1789. 1685. - Rođen je nemački kompozitor Georg Fridrih Hendl (Friedrich Handel), uz Johana Sebastijana Baha (Johann Sebastian Bach) najznačajniji muzičar baroka. U njegovom obimnom opusu najvrednijim se smatraju opere i oratorijumi ("Rinaldo", "Julije Cezar", "Mesija", "Izrael u Egiptu", "Juda Makabejac"). Po odlasku u London postao je centralna ličnost muzičkog života engleske prestonice, a 1719. poverena mu je organizacija i vođenje Kraljevske muzičke akademije. 1792. - Umro je engleski slikar Džošua Rejnolds (Joshua Reynolds), jedan od najvećih svetskih portretista, osnivač Kraljevske umetničke akademije 1768. i njen prvi predsednik. Snažno je uticao na englesko slikarstvo svojim stvaralaštvom i teoretskim raspravama o slikarstvu. 1821. - U Rimu je umro engleski pesnik Džon Kits (John Keats), čija se dela - soneti, spev "Endimion", pesme "Oda slavuju", "Oda grčkoj urni", "Oda jeseni" ubrajaju među najlepša poetska dela na engleskom jeziku. 1836. - Oko 4. 000 vojnika pod komandom meksičkog generala Antonija Lopesa de Santa Ane (Antonio Lopez, Anna) počelo je opsadu tvrđave Alamo u Teksasu. Tvrđava, koju je branilo oko 200 dobrovoljaca, među njima i Dejvi Kroket (Davy Crockett), pala je 6. marta, a svi branioci su izginuli. 1866. - Pod pritiskom bojara nezadovoljnih demokratskim reformama, rumunski knez Aleksandar Kuza (Alexander Cuza), ujedinitelj Moldavije i Vlaške primoran je da abdicira i da napusti zemlju. Nasledio ga je Karol I (Carol), princ od Hoencolerna (Hohenzollern), koji je 1881. postao prvi rumunski kralj. 1898. - Francuski pisac Emil Zola (Emile) uhapšen je zbog objavljivanja otvorenog pisma predsedniku Francuske, pod naslovom "Optužujem", u kojem je vladu optužio za antisemitizam i montirani sudski proces protiv kapetana Alfreda Drajfusa (Dreyfus). LINK. Grob Emila Zole. Naručite knjigu. Naručite knjigu. 1905. - Američki advokat Pol Persi Haris (Paul Percy Harris) osnovao je u Čikagu Rotari klub. 1919. - Benito Musolini (Mussolini) je napustio Socijalističku partiju i osnovao fašističku stranku pod nazivom "Fasci del Combattimento" (Borbeni odredi). 1931. - Umrla je australijska pevačica Neli Melba (Nellie), jedan od najvećih koloraturnih operskih soprana krajem 19. i početkom 20. veka. 1934. - Ubijen je lider nikaragvanskih pobunjenika Cezar Augusto Sandino. 1938. - U Kuvajtu je otkriveno prvo nalazište nafte. 1944. - U Vrhovni štab Narodnooslobodilacke vojske Jugoslavije u Drvaru stigla sovjetska vojna misija. To je bila prva sovjetska vojna misija na tlu Jugoslavije u Drugom svetskom ratu. 1959. - Međunarodni sud za ljudska prava otvorio je prvo zasedanje u Strazburu. 1965. - U Santa Moniki je umro slavni američki filmski komičar Sten Lorel (Stan Laurel), "mršavi" iz tandema Stanlio i Olio. 1970. - Britanska Gvajana postala je nezavisna republika u okviru Komonvelta. 1981. - U pokušaju da izvrši državni udar i zbaci vladu Adolfa Suareza, grupa gardista pod vođstvom pukovnika Antonia Tehera (Tejero) upala je, uz pucnjavu, u španski parlament. 1991. - Vojnim pučem u Tajlandu je oborena vlada Čatičaja Čunavana (Chatichai Choonhavan), a vlast je preuzela vojna hunta. 1994. - Bosanski Muslimani i Hrvati zaključili su sporazumni prekid vatre koji je stupio na snagu 25. februara i bio uvod za stvaranje muslimansko-hrvatske federacije u okviru Bosne i Hercegovine. 1999. - Pregovori srpskih vlasti i kosovskih Albanaca u Rambujeu kod Pariza prekinuti su bez potpisivanja sporazuma, koji su pregovaračima ponudili međunarodni posrednici. Srpska strana odbila je prisustvo stranih trupa na svojoj teritoriji, a albanska razoružanje Oslobodilačke vojske Kosova. 2001. - U Beogradu je uhapšen Radomir Marković, šef Državne bezbednosti za vreme režima Slobodana Miloševića. Marković je osumnjičen za učesće u političkim ubistvima poočinjenim između oktobra 1998. i januara 2001. Osuđen je 30. januara 2003. na sedam godina zatvora za pomaganje u prikrivanju četvorostrukog ubistva članova Srpskog pokreta obnove (SPO) na Ibarskoj magistrali. 2001. - Predsednici SR Jugoslavije i Makedonije Vojislav Koštunica i Boris Trajkovski potpisali su u Skoplju Sporazum o razgraničenju dve zemlje. 2003. - U 47 godini umro je američki rok muzičar Haui Epštajn (Honjie Epstein). Bio je gitarista i tekstopisac u grupi Tom Petty & Heartbreakers. 2005. - Haški tribunal otpečatio je optužnicu protiv bivšeg komandanta Armije Bosne i Hercegovine (BiH) Rasima Delića, zbog ratnih zločina nad Hrvatima i Srbima, koje su u srednjoj Bosni počinili mudžahedini iz sastava Trećeg korpusa Armije BiH. Delić se dobrovoljno predao tom sudu 28 februara. 2005. - U snažnom zemljotresu jačine 6,4 stepeni Rihterove skale koji je pogodio provinciju Kerman u Iranu poginulo je oko 600 ljudi, a blizu 1. 000 osoba je povređeno. LINK.
 
   

Na današnji dan, 26. marta Betoven i Ćopić

 

 

 

Iz istorije računarstva  Na današnji dan, 26. marta 1996. godine, preminuo je koosnivač kompanije Hewlett-Packard, David Packard, nakon nekoliko nedelja bolesti. Sa kolegom diplomcem Stanforda, Billom Hewlettom, Packard je osnovao Hewlett-Packard 1938. godine u garaži u Palo Altu, što je bio katalizator za razvoj onoga što je danas poznato kao Silicijumska dolina. Prvi proizvod kompanije bio je oscilator, od kojih je osam Disney koristio u svojem revolucionarnom filmu "Fantazija". Od tada, HP se proslavio u poljima personalnih računara, laserskih štampača, kalkulatora, dodataka i test opreme. Ovo je bio značajan trenutak ne samo za HP već i za celu tehnološku industriju, jer je postavio temelje za ono što će Silicijumska dolina postati u decenijama koje su usledile. Hewlett i Packard su bili pioniri u razvoju tehnoloških inovacija i korporativne kulture koja ceni otvorenu komunikaciju i radničku autonomiju, što je kasnije postalo poznato kao "HP Way". Njihova filozofija i metodi rada poslužili su kao inspiracija mnogim tehnološkim firmama koje su usledile, čineći Packardovu smrt značajnim gubitkom za celu industriju. ----- 1827. - U Beču je umro nemački kompozitor Ludvig van Betoven (Ludwig, Beethoven), koji se, uz Baha (Bach) i Mocarta (Mozart) smatra najvećim genijem u istoriji muzike. Autor je devet simfonija, 32 klavirske sonate, pet koncerata za klavir i orkestar, jedne opere ("Fidelio"), kamernih kompozicija, misa ("Misa solemnis"). Poslednjem ispraćaju maestra iz Bona prisustvovalo je 30. 000 Bečlija. Zašto je Betoven prosuo paprikaš Ova knjiga predstavlja jedinstven uvod u svet klasičnih kompozitora i njihove muzike. PORUČITE 1881. - Rumunija je postala kraljevina, a Karol I iz nemačke dinastije Hoencolern-Sigmaringen, proglasen je kraljem. 1892. - Umro je američki pisac Volt Volter Vitmen (Walt Walter Whitman), najuticajniji američki pesnik 19. veka, autor čuvene zbirke pesama "Vlati trave". 1893. - Rođen je italijanski političar Palmiro Toljati (Togliatti), jedan od osnivača i dugogodišnji generalni sekretar Komunističke partije Italije (1927-1964), pobornik policentrizma u komunističkom pokretu i utemeljivač koncepcije "italijanskog puta u socijalizam". 1913. - Nakon duge opsade, uz pomoć srpske vojske Bugari su u Prvom balkanskom ratu osvojili turski grad Jedrene. 1914. - Rođen je američki pisac Tomas Lenijer Vilijams (Thomas Lanier Williams), poznat kao Tenesi Vilijams (Tennessee), koji je stekao široku popularnost dramama ("Staklena menažerija", "Tramvaj nazvan želja", "Mačka na usijanom limenom krovu"). 1923. - Umrla je francuska glumica Sara Bernar (Sarah Bernhardt) koja je obeležila pozorišnu epohu kao najveća tragičarka svog doba. Uživala je izuzetnu popularnost i savremenici su je nazivali "božanska Sara". 1945. - Posle teških borbi, američke trupe su u Drugom svetskom ratu osvojile pacifičko ostrvo Ivo Džima. Amerikanci su izgubili više od 4. 500 vojnika, a oko 22. 000 Japanaca je poginulo ili zarobljeno. 1953. - Američki mikrobiolog Džonas Edvard Salk (Jonas Edward) objavio je pronalazak vakcine protiv dečije paralize. 1971. - Šeik Mudžibur Rahman (Mujibur) proglasio je Istočni Pakistan nezavisnom državom Bangladeš. 1973. - Umro je engleski pisac, glumac i pevač Noel Kauard (Coward). Svestrani majstor pozornice stekao je veliku popularnost svojim dramama, skečevima i muzičkim revijama ("Vrtlog", "Pali anđeli", "Laka vrlina", "Reč i muzika", "Privatni život"). 1979. - Predsednik Egipta Anvar el Sadat (Anwar) i premijer Izraela Menahem Begin (Menaćem) potpisali su u Vašingtonu mirovni ugovor. To je bio prvi mirovni sporazum između jevrejske države i jedne arapske zemlje. 1984. - Samoubistvo je izvršio jugosloveski i srpski pisac Branko Ćopić, jedan od najplodnijih i najpopularnijih pisaca u periodu posle Drugog svetskog rata. Humorista, autor rodoljubive i dečije poezije, Ćopić se smatra nastavljačem tradicije seoske pripovetke srpskog realizma Kočića, Ćorovića i Veselinovića ("Pod Grmečem", "Doživljaji Nikoletine Bursaća", "Gluvi barut", "Osma ofanziva", "Bašta slezove boje"). Doživljaji mačka Toše Ovi doživljaji slavnog mačka Toše i njegovih prijatelja Miša proroka i psa Šarova napisani su uz pomoć Tošina dnevnika, koji je pronađen iza pseće kućice čuvenog bubolovca Žuće, pod samom krošnjom jedne trešnje. PORUČITE Orlovi rano lete Zadatak je svake prave književnosti da oplemenjuje čovjeka i da mu život učini ljepšim i sadržajnijim. PORUČITE 1992. - Bivši šampion boksa u teškoj kategoriji Majk Tajson (Mike Tyson) osuđen je na šest godina zatvora zbog silovanja. 1993. - Savet bezbednosti UN izglasao je slanje 30. 000 mirovnih trupa u Somaliju. To je bila dotad najaveća i najskuplja mirovna operacija UN. 1993. - Umro je srpski pozorišni i filmski glumac Taško Načić, majstor komedije i groteske. Proslavio se u matičnom pozorištu "Atelje 212" ulogama u "Kralju Ibiju", "Radovanu III", "Čudu u Šarganu", "Kafanici sudnici, ludnici" i u mnogim filmovima, među kojima je najzapaženija bila uloga u "Davitelju protiv davitelja". 1993. - U Kalifoniji je na različitim mestima pronađeno 39 slično odevenih tela ljudi, pripadnika sekte "Rajska kapija" koji su izvršili masovno samoubistvo. 2001. - Savet bezbednosti UN usvojio je rezoluciju o slanju međunarodnih posmatrača radi zaštite civila na području Zapadne Obale i Gaze. 2002. Iz štampe je izašla knjiga broj 184, "Interaktivno modeliranje mašinskih konstrukcija" autora Milutina Ogrizovića. Više o knjizi. 2002. - U seriji zemljotresa koji su pogodili provinciju Baglan u Avganistanu poginulo je oko 1000 ljudi. 2002. - Tribunal u Hagu podigao je optužnicu protiv bivšeg načelnika bezbednosti Glavnog štaba Vojske Republike Srpske (VRS) Ljubiše Beare, za genocid i druge zločine počinjene u enklavi Srebrenica u julu 1995. Beara se dobrovoljno predao srpskim vlastima 9. oktobra 2004. godine nakon čega je izručen tom sudu. 2003. - Svetska trgovinska organizacija (STO) je saopstila da su američke čeličane povećanjem cena proizvoda kršile pravila te organizacije. Povećanje cena američka teška industrija pravdala je zaštitom od strane konkurencije. 2004. - Japanski sud doneo je presudu kojom je naloženo vladi i jednoj japanskoj firmi da isplate odštetu od 88 miliona jena grupi Kineza koji su bili primorani da rade u Japanu tokom II svetskog rata. 2004. - U atentatu u Beogradu na radnom mestu ubijen je generalni sekretar Fudbalskog saveza Srbije i Crne Gore Branko Bulatović. 2015. Gugl podseća na rođendan Stivena Tajlera. IZVOR.
 
   

Na današnji dan, 3. aprila

 

 

 

Iz istorije računarstva  Na današnji dan, 3. aprila 1617. godine, preminuo je škotski matematičar Džon Neper (John Napier) u 67. godini. Najpoznatiji je po izumu logaritama i ranog uređaja za računanje nazvanog Neperove kosti (Napier's Bones). Neperove kosti su se sastojale od tablica množenja koje su bile uklesane na trakama od drveta ili kosti, omogućavajući brze proračune. Nazvane su "kostima" zbog materijala koji je korišćen za izradu kvalitetnijih verzija - kosti ili slonovače. Njegov sistem logaritama pružio je osnovu za izum kliznog pravila u isto vreme, a logaritmi su bili glavno sredstvo za izvođenje proračuna sve do pojave digitalnog računara. Neper je rođen u Merčistonu (Merchiston), Škotska, 1550. godine. ----- 1512. - Turski sultan Bajazit II abdicirao je u korist sina Selima I. 1682. - Umro je španski slikar Bartolomeo Esteban Muriljo(Murillo), jedan od najznačajnijih predstavnika visokog baroka u slikarstvu. 1807. - U selu Voganj kod Rume počela je Ticanova buna u kojoj jeučestvovalo 15. 000 seljaka iz 45 sela rumskog i iločkog vlastelinstva. Austrijska vojska je za 10 dana ugušila pobunu, a vođa Teodor Avramović Tican uhvaćen je i krajem godine streljan. 1897. - U Beču je umro čuveni nemački kompozitor i pijanista Johanes Brams, autor brojnih simfonija, klavirskih koncerata, horskih i solo pesama. Svetsku slavu donelo mu je delo "Nemački rekvijem" napisano 1868. godine. Rodio se u Hamburgu, 7. maja 1833. u porodici muzičara. 1915. - U Valjevu je umrla srpska slikarka Nadežda Petrović. Smatra se začetnikom modernog srpskog slikarstva, a njene slike "Resnik", Notr Dam", "Autoportret", "Bulonjska šuma" svrstavaju se među najbolja dela u srpskoj likovnoj umetnosti. 1922. - Josif Visarionovič Staljin izabran je za generalnog sekretara Komunističke partije Rusije. 1923. - Rođen je Radivoje Lola Đukić (3. april 1923 — 7. septembar 1995).  Bio je televizijski, pozorišni i filmski reditelj i komediograf. Kao komediograf Đukić je jedan od najigranijih domaćih autora šezdesetih i sedamdesetih godina na jugoslovenskim teatarskim scenama. Najveći deo svoga komediografskog stvaralaštva posvetio je televizijskom mediju. Autor je oko 200 serijskih humorističkih emisija i TV komedija i satira koje je najčešće sam režirao. 1924. - Rođen je Marlon Brando (engl. Marlon Brando; Omaha, 3. april 1924 — Los Anđeles, 1. jul 2004).  Bio je američki filmski glumac. Tumačio je širok spektar različitih uloga: od likova buntovnika preko lika američkog oficira zaljubljenog u Japanku u filmu Sajonara, nacista u Mladim lavovima, homoseksualca u Odsjajima u zlatnom oku, psihički rastrojenog aristokratu u Poslednjem tangu u Parizu i autoritativnog šefa podzemlja u Kumu, do odbeglog američkog oficira u Apokalipsi danas. Sa lakoćom je baratao svojim velikim rasponom glumačkih mogućnosti, što ga je učinilo uzorom mladih glumačkih naraštaja i idealnim izborom za tumačenje bilo koje vrste karaktera. [ 1930. - Ras Tafari je postao car Haile Selasije I (Selassie) od Abisinije (Etiopija). 1930. - Rođen je nemački državnik Helmut Kol (Kohl) kancelar Zapadne Nemačke od 1982. i prvi kancelar Nemačke posle ujedinjenja Zapadne i Istočne Nemačke 1990. Na tom položaju je ostao 16 godina, do izbornog poraza 1998. 1936. - Pogubljen je Bruno Hauptman (Hauptmann), otmičar i ubicasina američkog pilota Čarlsa Lindberga (Charles Linbergh), koji je prvi sam preleteo Atlantski okean. Ovaj događaj je bio povod da SAD donesu Zakon o otmici kojim je za kidnapovanje uvedena smrtna kazna. 1941. - Mađarski premijer Pal Teleki izvršio je samoubistvo jedan dan nakon što je usvojen nemačko-mađarski plan za napad na Jugoslaviju. Teleki je bio član delegacije koja je 12. decembra 1940. u Beogradu potpisala Ugovor o večnom prijateljstvu i miru između Jugoslavije i Mađarske. Mađarska je zajedno s Nemačkom 6. aprila 1941. napala Jugoslaviju. 1946. Rođen je Branislav Branko Milićević (Beograd, 3. april 1946), poznatiji kao Branko Kockica.  Srpski glumac proslavljen u emisijama i predstavama za decu. Takođe je reditelj i pisac. Zoin Mihailo; "Roditelji su ga lepo skockali. " 1948. - Predsednik SAD Hari Truman (Harry) potpisao je Maršalov plan ekonomske pomoći posleratnoj Evropi. 1948. - Premijerom drame Ivana Cankara "Kralj Betajnove" u režiji Bojana Stupice, otvoreno je Jugoslovensko dramsko pozorište u Beogradu. Dramski ansambl je u početku imao 40 članova, direktor je bio pisac Eli Finci, a umetnički rukovodilac Bojan Stupica. 1975. - Ruski velemajstor Anatolij Karpov postao je svetski prvak u šahu, pošto je dotadašnji prvak američki velemajstor Bobi Fišer (Bobby Fisćer) odbio da brani titulu. Gari Kasparov: Kako život imitira šah Jedan od najcjenjenijih umova današnjice pokazuje kako šahovske vještine mogu doprinijeti većem uspjehu u profesionalnom i privatnom životu. Gari Kasparov na dlanu. Poručite   1979. - U Pakistanu je pogubljen bivši predsednik vlade Zulfikar Ali Buto (Bhutto), koji je zbačen sa vlasti vojnim udarom 1977. 1991. - Savet bezbednosti UN je izglasao rezoluciju o prekidu vatre u Zalivskom ratu, naložio razmeštanje mirovnih snaga u regionu i zatražio od Iraka da uništi oružje za masovno razaranje. 1991. - U Švajcarskoj je umro engleski pisac Grejem Grin (Graham Greene) - "Treći čovek", "Suština stvari", "Ministarstvo straha", "Moć i slava", "Kraj ljubavi", "Naš čovek u Havani". 1992. - Komunistički lider i predsednik Albanije Ramiz Alija podneo je ostavku dve nedelje nakon parlamentarnih izbora, na kojima su komunisti izgubili većinu u skupštini. 1995. - Najmanje 150 pripadnika plemena Hutu, mahom žena i dece, masakrirano je u jednom selu na severoistoku Burundija. 1997. - U avionskoj nesreći kod dubrovačkog aerodroma Čilipi poginuli su ministar trgovine SAD Ronald Braun (Brown), svi putnici (29), uglavnom članovi njegove pratnje i članovi posade (šest). 1999. - Avioni NATO bombardovali su centar Beograda, prvi put odpočetka vazdušnih napada na SR Jugoslaviju 24. marta. Pogođene su zgrade republičkog i saveznog ministarstva unutrašnjih poslova. U Novom Sadu srušen je drugi most na Dunavu. 2000. - Pripadnici Sfora uhapsili su na Palama jednog od ratnih lidera i visokog funkcionera bosanskih Srba Momčila Krajišnika i predali ga Međunarodnom sudu za ratne zločine u Hagu. 2003. - U Strazburu je državna zajednica Srbija i Crna Gora primljena u Savet Evrope, kao 45-ta zemlja članica te najstarije panevropske organizacije. 2007. — Francuski voz TGV oborio svetski rekord u brzini šinskih vozila sa 574,8 km/h. Zoin Mihailo: "Mi imamo one koji su u davanju obećanja brži od TGV" 2015. Gugl obeležava rođendan Edija Marfija. IZVOR.
 
   

Prikaz knjige Machine Learning Q and AI

 

 

 

Knjiga "Machine Learning Q and AI" autora Sebastiana Raschke, dostupna na No Starch Press, nudi napredno istraživanje polja mašinskog učenja i veštačke inteligencije koje prelazi osnovne koncepte. Koristi jedinstveni format pitanja i odgovora za produbljivanje složenih tema, čineći ih pristupačnim i privlačnim za čitaoce koji su zainteresovani da prodube svoje znanje. Svako poglavlje se bavi temeljnim pitanjem u AI, predstavljajući jasna objašnjenja, dijagrame i praktične vežbe. Ključne karakteristike knjige: Fokusirana poglavlja: Knjiga odgovara na ključna AI pitanja sažeto, razbijajući složene ideje na lako svarljive delove. Širok raspon tema: Obuhvata različite teme od arhitektura neuronskih mreža i evaluacije modela do računarskog vida i obrade prirodnog jezika. Praktične primene: Pruža tehnike za poboljšanje performansi modela, fino podešavanje velikih modela i još mnogo toga. Knjiga je odličan resurs za one koji su spremni da napreduju u svom razumevanju mašinskog učenja i AI, nudeći uvide u upravljanje nasumičnošću u obuci neuronskih mreža, razumevanje arhitektura enkodera i dekodera u jezičkim modelima, smanjenje preprilagođavanja, izgradnju intervala pouzdanosti za klasifikatore, paradigme obuke sa više GPU-ova i mnogo više. Sebastian Raschka, autor, je poznat istraživač mašinskog učenja i veštačke inteligencije sa strašću prema obrazovanju, trenutno služi kao glavni AI edukator u Lightning AI. Njegov rad ima za cilj da učini AI i duboko učenje dostupnijim, podržan njegovim bogatim iskustvom kao asistent profesor statistike i autorstvom bestselera u oblasti. Da li želite da kreirate dugi sadržaj na osnovu detalja ove knjige, kao što su sažetak, recenzija ili detaljna analiza određenih tema koje pokriva? Recenzije knjige "Machine Learning Q and AI" Sebastiana Raschke visoko su pozitivne i ističu njen značaj za praktikante veštačke inteligencije na svim nivoima: Cameron R. Wolfe, pisac "Deep (Learning) Focus", hvali sposobnost autora da pojednostavi složene teme vezane za AI i učini ih praktičnim i razumljivim za svakoga, nazivajući knjigu izvanrednim resursom. Chip Huyen, autor "Designing Machine Learning Systems", ističe jedinstvenu kombinaciju akademske dubine, inženjerske agilnosti i sposobnosti da razjasni složene ideje, preporučujući Sebastiana kao vodiča za one koji započinju svoje putovanje u mašinskom učenju. Chris Albon, direktor za mašinsko učenje u Wikimedia Foundation, hvali Sebastiana kao najboljeg edukatora iz oblasti mašinskog učenja na terenu, naglašavajući njegovu sposobnost da deli svoje obimno znanje i strast. Ronald T. Kneusel, autor "How AI Works", opisuje knjigu kao sveobuhvatni resurs za upoznavanje sa ključnim temama AI koje nisu pokrivene u većini uvodnih kurseva, nudići onima koji su već zakoračili u svet AI putokaz za razumevanje naprednijih nivoa. Ove recenzije naglašavaju kako knjiga pruža jasnoću i dubinu u razumevanju naprednih tema u mašinskom učenju i veštačkoj inteligenciji, čineći je neprocenjivim resursom za praktikante i entuzijaste u ovoj oblasti.
 
   

SAJAMSKE CENE KNJIGA DO KRAJA OKTOBRA

 

 

 

Cene knjiga su snižene do kraja oktobra na našem sajtu. Ukoliko vas interesuju knjige po 1. 000 dinara napravili smo poseban spisakI dalje važi:10% dodatnog popusta za 2 ili više knjiga, osim knjiga koje su u pretplati i kompleta knjiga. Prva na spisku najtraženijih knjiga je knjiga "Django 3" VIŠE O KNJIZI I KORPA ZA NARUČIVANJE NAJTRAŽENIJI NASLOVI U 2020. GODINI SU:   KNJIŽARSKA SAJAMSKA Django 3 kroz primere, prevod III izdanja 2530 2000 Pragmatični programer: vaš put do stručnosti 1980 1400 GO od početnika do profesionalca 2970 2300 Uvod u digitalni marketing 2200 1700 C# 8 i . NET Core 3, moderno međuplatformsko programiranje, prevod IV izdanja 2970 2300 HTML5, CSS3 I JavaScript za razvoj veb strana 2970 2300 Python mašinsko učenje, prevod trećeg izdanja 2970 2300 Java 11 i 12, naučite za 21 dan, prevod osmog izdanja 2970 2300 Osnove veštačke inteligencije i mašinskog učenja 1980 1500 Uvod u Python, automatizovanje dosadnih poslova 2200 1700 JavaScript funkcionalno programiranje, drugo izdanje 2310 1800 40 algoritama koje bi svaki programer trebalo da zna 1980 1500 WordPress kreiranje veb aplikacija 2420 1900 PHP 7, MYSQL I JAVASCRIPT U JEDNOJ KNJIZI 2970 2200 C# i . NET Core projektni obrasci 2090 1600 WordPress 5 u celosti, VII izdanje 1980 1500 Laravel - Radni okvir za izradu modernih PHP aplikacija 2420 1800 C++ jedna lekcija dnevno 2970 2300 SQL za analizu podataka 2200 1700 Administriranje Linux sistema - kuvar 2970 2300 Zaštita od zlonamernih programa (Malware analysis) 2420 1800 Amazon veb servisi u akciji, prevod drugog izdanja 2420 1800 R analiza podataka, drugo izdanje 2530 1800 Objektno-orijentisan JavaScript treće izdanje 2420 1800 Naučite Spring 5 2420 1800 Naučite Unity 5. x 2530 1900 SPISAK SVIH KNJIGA HORONOLOŠKI: LINK
 
   

Šta obuhvata knjiga Python mašinsko učenje

 

 

 

Šta obuhvata ova knjiga U Poglavlju 1, „Kako da računarima pružite mogućnost da uče iz podataka“, predstavićemo glavne podoblasti mašinskog učenja koje se koriste za rešavanje različitih problema. Osim toga, opisaćemo osnovne korake za kreiranje tipične protočne obrade izgradnje modela mašinskog učenja, koji će nas pratiti u narednim poglavljima. U Poglavlju 2, „Treniranje jednostavnih algoritama mašinskog učenja za klasifikaciju“, vraćamo se na početke mašinskog učenja i predstavljamo binarne klasifikatore perceptrona i adaptivne linearne neurone. Predstavićemo osnove klasifikacije obrazaca i fokusiraćemo se na interakciju algoritama optimizacije i mašinskog učenja. U Poglavlju 3, „Predstavljanje klasifikatora mašinskog učenja pomoću scikit-learna“, opisaćemo važne algoritme mašinskog učenja za klasifikaciju i obezbedićemo praktične primere upotrebom scikit-learna, jedne od najpopularnih i sveobuhvatnijih biblioteka mašinskog učenja otvorenog koda. U Poglavlju 4, „Izgradnja dobrih skupova podataka za trening - pretprocesiranje podataka“, opisaćemo kako se rešavaju najčešći problemi u neobrađenim skupovima podataka, kao što je podatak koji nedostaje. Takođe ćemo predstaviti nekoliko pristupa za identifikaciju najinformativnijih atributa u skupovima podataka i način kako se pripremaju promenljive različitih tipova kao pravilni unosi za algoritme mašinskog učenja. U Poglavlju 5, „Kompresovanje podataka upotrebom redukcije dimenzionalnosti“, upoznaćete tehnike za redukciju broja atributa u skupovima podataka na manje skupove, uz zadržavanje većine njihovih korisnih i diskriminitornih informacija. Osim toga, opisaćemo standardni pristup za redukciju dimenzionalnosti analizom glavnih komponenata i njihovim upoređivanjem sa nadgledanim tehnikama nelinearne transformacije. U Poglavlju 6, „Učenje najbolje prakse za procenu modela i podešavanje hiperparametara“, saznaćete šta treba, a šta ne treba da radite za procenu performanse prediktivnih modela. Upoznaćete i različite metrike za merenje performanse modela i tehnika za fino podešavanje algoritama mašinskog učenja. U Poglavlju 7, „Kombinovanje različitih modela za učenje udruživanjem“, predstavićemo različite koncepte efikasnog kombinovanja većeg broja algoritama učenja. Istražićemo kako se grade ansambli stručnjaka, koji će prevazići slabosti pojedinačnih učenika, što dovodi do tačnijih i pouzdanijih predviđanja. U Poglavlju 8, „Primena mašinskog učenja na analizu sentimenta“, opisaćemo osnovne korake za transformisanje tekstualnih podataka u smislene reprezentacije za algoritme mašinskog učenja za predviđanje mišljenja ljudi na osnovu njihovog pisanja. U Poglavlju 9, „Ugrađivanje modela mašinskog učenja u veb aplikacije“, nastavićemo upotrebu prediktivnog modela iz prethodnog poglavlja i vodićemo vas kroz osnovne korake razvoja veb aplikacija sa ugrađenim modelima mašinskog učenja. U Poglavlju 10, „Predviđanje kontinualnih ciljnih promenljivih pomoću analize regresije“, opisaćemo osnovne tehnike za modelovanje linearnog odnosa između cilja i promenljivih odgovora za izvršavanje kontinualnog predviđanja. Nakon predstavljanja različitih linearnih modela, biće reči o polinomnoj regresiji i pristupima zasnovanim na stablu. U Poglavlju 11, „Upotreba neoznačenih podataka - analiza grupisanja“, fokus prebacujemo na različite podoblasti mašinskog učenja, odnosno na nenadgledano učenje. Opisaćemo algoritme iz tri osnovne familije algoritama za grupisanje, koji pronalaze grupe objekata i dele određeni stepen sličnosti. U Poglavlju 12, „Implementiranje višeslojnih veštačkih neuronskih mreža 'od nule'“, proširićemo koncept optimizacije zasnovane na gradijentu, koju smo predstavili u Poglavlju 2. Izgradićemo moćne višeslojne neuronske mreže (NN) na osnovu popularnog algoritma propagacije greške unazad u Pythonu. Poglavlje 13, „Paralelizacija treninga neuronske mreže pomoću TensorFlowa“, nadovezuje se na znanje stečeno u prethodnom poglavlju za obezbeđivanje efikasnijeg praktičnog vodiča za trening NN-a. Fokus u ovom poglavlju je na TensorFlowu 2. 0, Python biblioteci otvorenog koda koja omogućava da iskoristimo više jezgara modernih procesora (GPU-a) i konstruišemo duboke NN-e iz zajedničkih gradivnih blokova pomoću jednostavnog Keras API-a. U Poglavlju 14, „Detaljnije - mehanika TensorFlowa“, nastavićemo razmatranje teme iz prethodnog poglavlja i predstavićemo naprednije koncepte i funkcionalnosti TensorFlowa 2. 0. TensorFlow je izuzetno velika i sofisticirana biblioteka i u ovom poglavlju ćemo vas provesti kroz koncepte, kao što su kompajliranje koda u statičke grafove za brže izvršenje i definisanje parametara modela koji se mogu trenirati. Osim toga, obezbedićemo dodatnu praktičnu vežbu treniranja dubokih neuronskih mreža upotrebom Keras API-a TensorFlowa, kao i unapred definisanih Estimatora Tensor Flowa. U Poglavlju 15, „Klasifikovanje slika pomoću dubokih konvolucionih neuronskih mreža“, predstavićemo konvolucione neuronske mreže (CNN). CNN predstavlja određeni tip duboke NN arhitekture koja je posebno dobro prilagođena skupovima podataka slika. Zbog svoje superiorne performanse u odnosu na tradicionalne pristupe, CNN se sada koristi u računarskom vidu za postizanje vrhunskih rezultata za različite zadatke prepoznavanja slika. U ovom poglavlju ćete naučiti kako konvolucioni slojevi mogu da se upotrebe kao moćni ekstraktori atributa za klasifikaciju slika. U Poglavlju 16, „Modelovanje sekvencijalnih podataka upotrebom rekurentnih neuronskih mreža“, upoznaćete još jednu popularnu NN arhitekturu za duboko učenje, koja je posebno dobro prilagođena za upotrebu teksta i drugih tipova sekvencijalnih podataka i podataka vremenskih serija. Kao vežbu zagrevanja, u ovom poglavlju predstavićemo rekurentnu NN za predviđanje sentimenta recenzija filmova. Zatim ćemo opisati učenje rekurentnih mreža da prebacuju informacije iz knjiga da bi generisale potpuno novi tekst. U Poglavlju 17, „Generativne suparničke mreže za sintetizovanje novih podataka“, predstavićemo popularni suparnički trening režim za NN-e koji može da se upotrebi za generisanje novih slika realističnog izgleda. Poglavlje ćemo započeti kratkim uvodom u autoenkodere koji su poseban tip NN arhitekture koji može da se upotrebi za kompresovanje podataka. Zatim ćemo prikazati kako se kombinuje deo dekodera autoenkodera sa drugom NN, koji može da razlikuje stvarne i sintetizovane slike. Omogućavanjem nadmetanja dve NN u pristupu suparničkog treninga implementiraćemo generativnu suparničku mrežu koja generiše nove ručno pisane cifre. Na kraju, nakon predstavljanja osnovnih koncepata generativnih suparničkih mreža, predstavićemo i poboljšanja koja mogu da stabilizuju suparnički trening, kao što je upotreba Wasserstein metrika udaljenosti. U Poglavlju 18, „Učenje uslovljavanjem za donošenje odluka u kompleksnim okruženjima“, obuhvatićemo potkategoriju mašinskog učenja koja se često koristi za treniranje robota i drugih autonomnih sistema. Prvo ćemo predstaviti osnove učenja uslovljavanjem (RL) da biste upoznali interakcije agenta/okruženja procesom nagrađivanja RL sistema i konceptom učenja iz iskustva. Obuhvatićemo dve glavne kategorije RL-a: RL koji je zasnovan na modelu i RL bez modela. Nakon što naučite osnovne algoritamske pristupe, kao što su Monte Carlo i vremensko učenje zasnovano na udaljenosti, implementiraćete i trenirati agenta koji može da se kreće kroz mrežu okruženja upotrebom Q-learning algoritma. Na kraju ćemo predstaviti duboki Q-learning algoritam koji je varijanta Q-learning algoritma koji koristi duboke NN-e. NARUČITE KNJIGU   LINK ZA NARUČIVANJE
 
   

The Complete Machine Learning Bookshelf

 

 

 

The Complete Machine Learning Bookshelf Books are a fantastic investment. You get years of experience for tens of dollars. I love books and I read every machine learning book I can get my hands on. I think having good references is the fastest way to getting good answers to your machine learning questions, and having multiple books can give you multiple perspectives on tough questions. In this guide, you will discover the top books on machine learning. There are many reasons to want and read machine learning books. For this reason, I have grouped and listed machine learning books a number of different ways, for example: By Type: Textbooks, Popular Science, etc. By Topic: Python, Deep Learning, etc. By Publisher: Packt, O’Reilly, etc. And much more. All books are linked to on Amazon so that you can learn more about it and even grab it immediately. I will keep this guide updated, bookmark it and check back regularly. Let’s get started. How to Use This Guide Find a topic or theme that interests you the most. Browse the books in your chosen section. Purchase the book. Read it cover-to-cover. Repeat. Owning a book is not the same as knowing its contents. Read the books you buy. Have you read any machine learning books?Share your what you have read in the comments below. Machine Learning Books By Type Popular Science Machine Learning Books This is a list of popular science machine learning books aimed at a general audience. They give a flavor of the benefits of machine learning or data science without the theory or application detail. I’ve also thrown in some relevant “statistical thinking” pop science books that I enjoyed. The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie, or Die The Signal and the Noise: Why So Many Predictions Fail–but Some Don’t Naked Statistics: Stripping the Dread from the Data The Drunkard’s Walk: How Randomness Rules Our Lives A top pick from this list is: The Signal and the Noise. Beginner Machine Learning Books This is a lost of machine learning books intended for beginners. There is a flavor of the benefits of applied machine learning seen in pop science books (previous) and the beginnings of implementation detail seen more in introductory books (below). Data Science for Business: What You Need to Know about Data Mining and Data-Analytic Thinking Data Smart: Using Data Science to Transform Information into Insight Data Mining: Practical Machine Learning Tools and Techniques Doing Data Science: Straight Talk from the Frontline A top pick from this list might be: Data Mining: Practical Machine Learning Tools and Techniques. Introductory Machine Learning Books Below is a list of the top books for beginners that may be in an undergraduate course or developers looking to make their start. They cover a wide range of machine learning topics focusing on the how rather than the theory and “why” of the methods. Machine Learning for Hackers: Case Studies and Algorithms to Get You Started Machine Learning in Action Programming Collective Intelligence: Building Smart Web 2. 0 Applications An Introduction to Statistical Learning: with Applications in R Applied Predictive Modeling A top pick from this list might be: An Introduction to Statistical Learning: with Applications in R. Machine Learning Textbooks Below is a list of the top machine learning textbooks. These are the books you will use in a graduate machine learning course, covering a wind range of methods and the theory behind them. The Elements of Statistical Learning: Data Mining, Inference, and Prediction Pattern Recognition and Machine Learning Machine Learning: A Probabilistic Perspective Learning From Data Machine Learning Machine Learning: The Art and Science of Algorithms that Make Sense of Data Foundations of Machine Learning A top pick from this might be: The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Machine Learning Books By Topic Machine Learning With R List of books on applied machine learning with the R platform. R for Data Science: Import, Tidy, Transform, Visualize, and Model Data. Machine Learning with R. Machine Learning With R Cookbook – 110 Recipes for Building Powerful Predictive Models with R. R Machine Learning By Example. R Machine Learning Essentials. Mastering Machine Learning with R An Introduction to Statistical Learning: with Applications in R. Practical Data Science with R Applied Predictive Modeling. R and Data Mining: Examples and Case Studies A top pick from this list is: Applied Predictive Modeling. Machine Learning With Python List of top books on applied machine learning with the Python and SciPy platforms. Python Machine Learning Data Science from Scratch: First Principles with Python Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques for Building Intelligent Systems Introduction to Machine Learning with Python: A Guide for Data Scientists Vital Introduction to Machine Learning with Python: Best Practices to Improve and Optimize Machine Learning Systems and Algorithms Machine Learning in Python: Essential Techniques for Predictive Analysis Python Data Science Handbook: Essential Tools for Working with Data Introducing Data Science: Big Data, Machine Learning, and more, using Python tools Real-World Machine Learning A top pick from this list is probably: Python Machine Learning. Deep Learning List of books on deep learning. There are few good books to choose from at the moment, so I have gone for quantity over quality. Deep Learning Deep Learning: A Practitioner’s Approach Fundamentals of Deep Learning: Designing Next-Generation Machine Intelligence Algorithms Learning TensorFlow: A guide to building deep learning systems Machine Learning with TensorFlow TensorFlow Machine Learning Cookbook Getting Started with TensorFlow TensorFlow for Machine Intelligence: A Hands-On Introduction to Learning Algorithms The clear top pick is from this list is: Deep Learning. Time Series Forecasting List of top books on time series forecasting. The applied side of time series forecasting is dominated by the R platform at the moment Time Series Analysis: Forecasting and Control Practical Time Series Forecasting with R: A Hands-On Guide Introduction to Time Series and Forecasting Forecasting: principles and practice A top introductory book is Forecasting: principles and practice. Machine Learning Books By Publisher There are three publishers that have gone after machine learning hard and are really cranking out books. They are: O’Reilly, Manning and Packt. Their focus is on applied books and the quality of books on that list does vary greatly, from well designed and edited, to a bunch of blog posts stabled together. O’Reilly Machine Learning Books O’Reilly have 100s of books related to their “data” initiative, many of which are related to machine learning. I cannot possibly list them all, see the related links. Below are a few best sellers. Programming Collective Intelligence: Building Smart Web 2. 0 Applications Introduction to Machine Learning with Python: A Guide for Data Scientists Deep Learning: A Practitioner’s Approach Fundamentals of Deep Learning: Designing Next-Generation Machine Intelligence Algorithms Data Science from Scratch: First Principles with Python Python Data Science Handbook: Essential Tools for Working with Data The book Programming Collective Intelligence: Building Smart Web 2. 0 Applications might have launched this direction and has been popular for a long time. Related Links O’Reilly Data Portal O’Reilly Data Products Machine Learning Starter Kit: Automate Analysis Through Patterns in Data Manning Machine Learning Books Manning books are practical and of a reasonable quality. They don’t have a catalog of 100s of books (yet) like O’Reilly and Packt. Machine Learning in Action Real-World Machine Learning Introducing Data Science: Big Data, Machine Learning, and more, using Python tools Practical Data Science with R The stand-out in the Manning catalog is Machine Learning in Action perhaps again because it may have been the first in their catalog on machine learning. Related Links Manning Data Science Books Manning Machine Learning Books Packt Machine Learning Books It feels like Packt have gone all in on data science and machine learning books. They have titles on a large range of esoteric libraries and multiple books on popular topics like R and Python. Below are some of the more popular titles. Machine Learning with R Python Machine Learning Practical Machine Learning Machine Learning in Java Mastering . NET Machine Learning Additional Resources Below are some of the resources that I used to compile this guide as well as additional lists of machine learning books that you may find useful. Amazon Best Sellers in Machine Learning Awesome Machine Learning Books How do I learn machine learning? Answer Wiki on Quora Reddit Machine Learning FAQ Summary I have tried to compile the largest and most complete list of machine learning books. Have you read one or more of the books in this guide? Which ones and what did you think of them? Did you buy a new book? Which one? Did I miss a great machine learning book, let me know in the comments below. About Jason Brownlee Dr. Jason Brownlee is a husband, proud father, academic researcher, author, professional developer and a machine learning practitioner. He is dedicated to helping developers get started and get good at applied machine learning.  Learn more. View all posts by Jason Brownlee →                      
 
   

The top 10 deep learning frameworks

 

 

 

This is the age of artificial intelligence. Machine Learning and predictive analytics are now established and integral to just about every modern businesses, but artificial intelligence expands the scale of what's possible within those fields. It's what makes deep learning possible. Systems with greater ostensible autonomy and complexity can solve similarly complex problems. If Deep Learning is able to solve more complex problems and perform tasks of greater sophistication, building them is naturally a bigger challenge for data scientists and engineers. Luckily, there's a growing range of frameworks that make it a little easier to build deep learning solutions of some complexity. This wave of frameworks is another manifestation of a wider trend across modern technology for engineering communities to develop their own tools that offer a higher level of abstraction and simplify potentially difficult programming tasks. Every framework is different, built for a different purpose and offering a unique range of features. However, understanding what this landscape looks like will help to inform how you take on your next deep learning challenge, giving you a better sense of what’s available to help you. 1. TensorFlow One of the most popular Deep Learning libraries out there, Tensorflow was developed by the Google Brain team and was open-sourced in 2015. Termed as a ‘second-generation machine learning system’, Tensorflow is a Python-based library capable of running on multiple CPUs and GPUs. It is available on all platforms, desktop and mobile. It also has support for other languages such as C++ and R, and can be used directly to create deep learning models, or by using wrapper libraries (for e. g. Keras) on top of it. Find our extensive range of TensorFlow books here. 2. Theano One of the first deep learning libraries, Theano is Python-based and is very good when it comes to numerical computation on CPUs and GPUs. Just like Tensorflow, Theano is a low-level library, which you can use directly to create deep learning models, or use wrapper libraries on top of it to simplify the process. It is, however, not very scalable, unlike some other deep learning frameworks, and lacks multi-GPU support. However, it is still a choice of many developers all over the world when it comes to general-purpose deep learning. 3. Keras While Theano and Tensorflow are very good deep learning libraries, creating models using them directly can be a challenge, as they’re pretty low-level. To tackle this challenge, Keras was built as a simplified interface for building efficient neural networks. Keras can be configured to work on either Theano or Tensorflow. Written in Python, it is very lightweight and straightforward to learn. It has a very good documentation despite being relatively new, and you can build a neural network using Keras in just a few lines of code. Get started with Deep Learning with Keras. 4. Caffe Built with expression, speed and modularity in mind, Caffe is one of the first deep learning libraries developed mainly by Berkeley Vision and Learning Center (BVLC). It is a C++ library which also has a Python interface, and finds its primary application in modeling Convolutional Neural Networks. One of the major benefits of using this library is that you can get a number of pre-trained networks directly from the Caffe Model Zoo, available for immediate use. If you’re interested in modeling CNNs or solve your image processing problems, you might want to consider this library. Following the footsteps of Caffe, Facebook also recently open-sourced Caffe2, a new light-weight, modular deep learning framework which offers greater flexibility for building high-performance deep learning models. 5. Torch Torch is a Lua-based deep learning framework, and has been used and developed by big players such as Facebook, Twitter and Google. It makes use of the C/C++ libraries as well as CUDA for GPU processing.  Torch was built with an aim to achieve maximum flexibility and make the process of building your models extremely simple. More recently, the Python implementation of Torch, called as PyTorch, has found popularity and is gaining rapid adoption. 6. Deeplearning4j DeepLearning4j (or DL4J) is a popular deep learning framework developed in Java and supports other JVM languages as well. It is very slick, and is very widely used as a commercial, industry-focused distributed deep learning platform. The advantage of using DL4j is that you can bring together the power of the whole Java ecosystem to perform efficient deep learning, as it can be implemented on top of the popular Big Data tools such as Apache Hadoop and Apache Spark. 7. MxNet MXNet is one of the most languages-supported deep learning frameworks, with support for languages such as R, Python, C++ and Julia. This is helpful because if you know any of these languages, you won’t need to step out of your comfort zone at all, to train your deep learning models. It’s backend is written in C++ and cuda, and is able to manage its own memory like Theano. MXNet is also popular because it scales very well and is able to work with multiple GPUs and computers, which makes it very useful for the enterprises. This is also one of the reasons why Amazon made MXNet its reference library for Deep Learning too. 8. Microsoft Cognitive Toolkit Microsoft Cognitive Toolkit, previously known by its acronym CNTK, is an open-source deep learning toolkit to train deep learning models. It is highly optimized, and has support for languages such as Python and C++. Known for its efficient resource utilization, you can easily implement efficient Reinforcement Learning models or Generative Adversarial Networks (GANs) using the Cognitive Toolkit. It is designed to achieve high scalability and performance, and is known to provide high performance gains when compared to other toolkits like Theano and Tensorflow, when running on multiple machines. 9. Lasagne Lasagne is a high-level deep learning library that runs on top of Theano.  It has been around for quite some time now, and was developed with the aim of abstracting the complexities of Theano, and provide a more friendly interface to the users to build and train neural networks. It requires Python, and finds many similarities to Keras, which we just saw above. However, if we are to find differences between the two, Keras is faster, and has a better documentation in place. 10. BigDL BigDL is distributed deep learning library for Apache Spark, and is designed to scale very well. With the help of BigDL, you can run your deep learning applications directly on Spark or Hadoop clusters, by writing them as Spark programs. It has a rich deep learning support, and uses Intel’s Math Kernel Library (MKL) to ensure high performance. Using BigDL, you can also load your pre-trained Torch or Caffe models into Spark. If you want to add deep learning functionalities to a massive set of data stored on your cluster, this is a very good library to use. The list above presents a very interesting question, then. Which deep learning framework would best suit your needs? Well, that depends on a number of factors. If you want to get started with deep learning, it would be a safe bet to use a Python-based framework like Tensorflow or Theano, which are quite popular. For seasoned professionals, efficiency of the trained model, ease of use, speed and resource utilization are some important considerations for choosing the best deep learning framework. ORIGINAL
 
   

Top Stories Past 30 Days

 

 

 

Most Popular Top 15 Python Libraries for Data Science in 2017 The 10 Algorithms Machine Learning Engineers Need to Know 10 Free Must-Read Books for Machine Learning and Data Science Applying Deep Learning to Real-world Problems Emerging Ecosystem: Data Science and Machine Learning Software, Analyzed 6 Interesting Things You Can Do with Python on Facebook Data Text Clustering: Get quick insights from Unstructured Data Most Shared The 4 Types of Data Analytics Applying Deep Learning to Real-world Problems Emerging Ecosystem: Data Science and Machine Learning Software, Analyzed The Machine Learning Algorithms Used in Self-Driving Cars Text Clustering: Get quick insights from Unstructured Data The world’s first protein database for Machine Learning and AI What Advice Would You Give Your Younger Data Scientist Self?
 
   

Veštačka inteligencija i mašinsko učenje 30 pitanja i odgovora drugačiji pogled

 

 

 

Poglavlje 1: Ugrađeni vektori, latentni prostor i reprezentacije 1. Šta su ugrađeni vektori? • Ugrađeni vektori su numeričke reprezentacije objekata u prostoru manje dimenzije koje zadržavaju semantičke karakteristike originalnih podataka. 2. Kako se formira latentni prostor? • Latentni prostor se formira učenjem prikladnih ugrađenih vektora pomoću metoda kao što su autokoderi, analiza glavnih komponenti (PCA) ili t-raspodeljeno stohastičko ugrađivanje suseda (t-SNE). 3. Koje su primene ugrađenih vektora? • Primene uključuju sisteme za preporučivanje, pretragu po sličnosti, zadatke obrade prirodnog jezika kao što su klasifikacija teksta i prepoznavanje govora. 4. Koji algoritmi se koriste za kreiranje ugrađenih vektora? • Algoritmi kao što su Word2Vec, GloVe, fastText, i transformatori (BERT, GPT). 5. Kako se evaluiraju ugrađeni vektori? • Evaluacija se vrši pomoću metričkih performansi na zadacima kao što su klasifikacija, pretraga po sličnosti ili vizuelizacija (npr. t-SNE mape). Poglavlje 2: Samonadgledano učenje 1. Šta je samonadgledano učenje? • Samonadgledano učenje je metod učenja gde model koristi delove podataka za generisanje oznaka za druge delove podataka bez eksplicitnog nadzora. 2. Koje su primene samonadgledanog učenja? • Primene uključuju prepoznavanje objekata u slikama, generisanje teksta, i popunjavanje nedostajućih podataka. 3. Kako se razlikuje od nadgledanog učenja? • Dok nadgledano učenje koristi označene podatke, samonadgledano učenje koristi neoznačene podatke i generiše vlastite oznake. 4. Koje su prednosti samonadgledanog učenja? • Prednosti uključuju smanjenu potrebu za označenim podacima i mogućnost rada sa velikim skupovima podataka. 5. Primeri samonadgledanih metoda? • Primeri uključuju kontrastno učenje (SimCLR), nadzirani zadaci (RotNet), i paradigme preobučavanja (MAE). Poglavlje 3: Učenje sa malo primera 1. Šta je učenje sa malo primera? • Učenje sa malo primera je metod koji omogućava modelima da generalizuju i uče iz veoma malog broja primera. 2. Koji su izazovi učenja sa malo primera? • Izazovi uključuju preprilagođavanje, smanjenu generalizaciju, i potrebu za sofisticiranim tehnikama regularizacije. 3. Kako se može poboljšati učenje sa malo primera? • Korišćenjem tehnika kao što su učenje prenosom znanja, povećanje podataka, i meta- učenje. 4. Koje su primene učenja sa malo primera? • Primene uključuju medicinsku dijagnostiku, personalizovane preporuke, i zadatke sa retkim događajima. 5. Primeri algoritama za učenje sa malo primera? • Primeri uključuju meta-učenje nezavisno od modela (MAML), prototipne mreže, i mreže podudaranja. Poglavlje 4: Hipoteza o dobitnoj srećki 1. Šta je hipoteza o dobitnoj srećki? • Hipoteza o dobitnoj srećki sugeriše da u velikim mrežama postoje mali podskupovi težina koji mogu biti inicijalizovani na način da omogućavaju uspešno treniranje. 2. Kako se testira hipoteza o dobitnoj srećki? • Testira se analizom performansi mreža nakon selekcije i inicijalizacije određenih podmreža. 3. Koje su implikacije hipoteze o dobitnoj srećki? • Implikacije uključuju mogućnost treniranja manjih, efikasnijih mreža sa smanjenim resursima. 4. Koji su izazovi u implementaciji hipoteze? • Izazovi uključuju identifikaciju odgovarajućih podmreža i adekvatne tehnike inicijalizacije. 5. Primeri studija koje testiraju ovu hipotezu? • Studije koje koriste ResNet, VGG mreže i eksperimentalne postavke u kontekstu različitih zadataka poput klasifikacije slike i prepoznavanja govora. Poglavlje 5: Smanjivanje preprilagođavanja pomoću podataka 1. Šta je preprilagođavanje? • Preprilagođavanje se javlja kada model uči detalje i šum iz skupa za obučavanje do te mere da ne generalizuje dobro na novim podacima. 2. Kako se preprilagođavanje može smanjiti pomoću podataka? • Korišćenjem tehnika kao što su povećanje podataka, korišćenje dodatnih podataka i polu- nadgledano učenje. 3. Koje su metode povećanja podataka? • Metode uključuju rotacije, translacije, skaliranja, promena boja i izobličenja za slike; sinonim zamene i umetanje za tekst. 4. Šta je polu-nadgledano učenje? • Polu-nadgledano učenje koristi mali broj označenih podataka zajedno sa velikim brojem neoznačenih podataka za obuku modela. 5. Kako dodatni podaci mogu pomoći? • Dodatni podaci mogu poboljšati generalizaciju modela, smanjujući preprilagođavanje na skupu za obučavanje. Poglavlje 6: Smanjivanje preprilagođavanja modifikacijama modela 1. Koje su tehnike smanjivanja preprilagođavanja kroz modifikaciju modela? • Tehnike uključuju regularizaciju (L1/L2), izostavljanje, normalizaciju paketa, i korišćenje jednostavnijih modela. 2. Kako izostavljanje funkcioniše? • Izostavljanje funkcioniše tako što na slučajan način isključuje jedinice u neuronskoj mreži tokom obučavanja kako bi se sprečilo preprilagođavanje. 3. Šta je regularizacija i kako pomaže? • Regularizacija dodaje kaznu za velike težine u cilju smanjenja preprilagođavanja i poboljšanja generalizacije. 4. Kako normalizacija paketa funkcioniše? • Normalizacija paketa normalizuje izlaze svake mini-serije podataka, ubrzavajući i stabilizujući učenje. 5. Koji su primeri korišćenja jednostavnijih modela? • Korišćenje jednostavnijih modela uključuje smanjenje broja slojeva ili jedinica po sloju u mreži. Poglavlje 7: Paradigme obuke sa više GPU komponenti 1. Kako paralelizacija obuke funkcioniše sa više GPU komponenti? • Paralelizacija koristi više GPU procesora za istovremeno obučavanje različitih delova modela ili različitih mini-serija podataka. 2. Koje su prednosti korišćenja više GPU procesora? • Prednosti uključuju ubrzanje obuke, mogućnost obučavanja većih modela i obradu većih količina podataka. 3. Šta je paralelizam podataka? • Paralelizam podataka deli mini-serije podataka između različitih GPU procesora dok svaki GPU procesor ažurira svoje lokalne težine. 4. Šta je paralelizam modela? • Paralelizam modela deli različite delove modela između GPU procesora, omogućavajući paralelnu obradu različitih slojeva modela. 5. Koji su izazovi obuke sa više GPU procesora? • Izazovi uključuju sinhronizaciju težina, skalabilnost i efikasno korišćenje memorije. Poglavlje 8: Uspeh transformatora 1. Šta su transformatori? • Transformatori su arhitekture dubokog učenja koje koriste mehanizme samopažnje da obrade sekvencijalne podatke bez obzira na njihovu dužinu. 2. Koje su ključne komponente transformatora? • Ključne komponente uključuju mehanizme samopažnje, slojeve prosleđivanja unapred, i pozicijske kodere. 3. Kako transformatori poboljšavaju zadatke obrade prirodnog jezika? • Transformatori omogućavaju bolje razumevanje konteksta i duge zavisnosti u tekstu, poboljšavajući zadatke kao što su prevođenje, rezimiranje i generisanje teksta. 4. Koje su popularne implementacije transformatora? • Popularne implementacije uključuju BERT, GPT, T5 i Transformer-XL. 5. Koji su primeri uspeha transformatora u praksi? • Primeri uključuju poboljšanja u mašinskom prevođenju, odgovaranju na pitanja, generisanju koda i prepoznavanju govora. Poglavlje 9: Generativni modeli veštačke inteligencije 1. Šta su generativni modeli? • Generativni modeli su algoritmi koji uče da generišu nove podatke slične onima na kojima su obučeni. 2. Koje su vrste generativnih modela? • Vrste uključuju generativne suparničke mreže (GAN), varijacione autokodere (VAE), i modele zasnovane na toku. 3. Kako funkcionišu generativne suparničke mreže? • Generativne suparničke mreže sadrže dva modela: generator koji stvara lažne podatke i diskriminator koji razlikuje lažne od stvarnih podataka. 4. Koje su primene generativnih modela? • Primene uključuju generisanje slika, kreiranje veštačkih podataka, povećanje podataka i stilizaciju slika. 5. Koji su izazovi u obučavanju generativnih modela? • Izazovi uključuju stabilnost obuke, balansiranje između generatora i diskriminatora, i ocenjivanje kvaliteta generisanih podataka. Poglavlje 10: Izvori slučajnosti 1. Šta su izvori slučajnosti? • Izvori slučajnosti su metode i mehanizmi za generisanje slučajnih brojeva ili događaja. 2. Koji su prirodni izvori slučajnosti? • Prirodni izvori uključuju termalni šum, radioaktivni raspad, i atmosferski šum. 3. Koji su algoritamski izvori slučajnosti? • Algoritamski izvori uključuju generatore pseudo-slučajnih brojeva (PRNG) kao što su Mersenne Twister, i kriptografski PRNG algoritmi. 4. Kako se evaluiraju izvori slučajnosti? • Evaluacija se vrši analizom statističkih svojstava generisanih sekvenci, uključujući uniformnost i nepredvidivost. 5. Koje su primene slučajnosti u veštačkoj inteligenciji? • Primene uključuju inicijalizaciju težina u neuronskim mrežama, povećanje podataka, i simulacije metodom Monte Karlo. DEO II: RAČUNARSKO PREPOZNAVANJE SLIKA Poglavlje 11: Izračunavanje broja parametara 1. Kako se izračunava broj parametara u modelu? • Broj parametara se izračunava sabiranjem svih težina i pristrasnosti u svim slojevima modela. 2. Zašto je važno znati broj parametara? • Znanje o broju parametara je važno za procenu složenosti modela, memorijskih zahteva i vremena obuke. 3. Kako broj parametara utiče na performanse modela? • Veći broj parametara može poboljšati performanse, ali povećava rizik od preprilagođavanja i potrebu za većim resursima. 4. Primer izračunavanja broja parametara u konvolucionoj mreži? • Za konvolucioni sloj sa filterom 3x3, 64 ulaznih i 128 izlaznih kanala: 3*3*64*128 = 73728 parametara, plus 128 pristrasnosti. 5. Koje su tehnike za smanjenje broja parametara? • Tehnike uključuju kompresiju modela, proređivanje, kvantizaciju i korišćenje lakših arhitektura poput MobileNet. Poglavlje 12: Potpuno povezani i konvolucioni slojevi 1. Šta su potpuno povezani slojevi? • Potpuno povezani slojevi su slojevi u neuronskim mrežama gde je svaka jedinica povezana sa svakom jedinicom u prethodnom sloju. 2. Šta su konvolucioni slojevi? • Konvolucioni slojevi primenjuju konvolucione filtere na ulazne podatke kako bi izdvojili prostorne karakteristike. 3. Koje su prednosti konvolucionih slojeva? • Prednosti uključuju smanjenje broja parametara, detekciju lokalnih karakteristika i invarijantnost na translacije. 4. Koje su primene potpuno povezanih slojeva? • Primene uključuju zadatke klasifikacije, gde se koristi za kombinovanje karakteristika iz prethodnih slojeva. 5. Kako se kombinovanjem konvolucionih i potpuno povezanih slojeva gradi konvoluciona neuronska mreža? • Konvolucioni slojevi izvlače lokalne karakteristike, dok potpuno povezani slojevi na kraju mreže vrše klasifikaciju na osnovu ovih karakteristika. Poglavlje 13: Veliki skupovi za obuku vizuelnih transformatora 1. Šta su vizuelni transformatori (ViT)? • Vizuelni transformatori koriste mehanizme samopažnje za obradu slika, tretirajući slike kao niz delova. 2. Zašto su potrebni veliki skupovi za obuku ViT transformatora? • Veliki skupovi su potrebni da bi ViT transformatori naučili složene vizuelne karakteristike i postigli dobre performanse. 3. Koji su poznati skupovi podataka za obuku ViT transformatora? • Poznati skupovi uključuju ImageNet, COCO, i Open Images. 4. Koje su prednosti korišćenja velikih skupova podataka? • Prednosti uključuju bolje generalizacione performanse i sposobnost modela da uči raznovrsne karakteristike. 5. Kako se velikim skupovima podataka upravlja tokom obuke? • Korišćenjem tehnika kao što su distribuirana obuka, povećanje podataka i efikasno upravljanje memorijom. DEO III: OBRADA PRIRODNOG JEZIKA Poglavlje 14: Distribuciona hipoteza 1. Šta je distribuciona hipoteza? • Distribuciona hipoteza tvrdi da reči koje se pojavljuju u sličnim kontekstima imaju slična značenja. 2. Koji su primeri distribucionih modela? • Primeri uključuju Word2Vec, GloVe i fastText. 3. Kako distribuciona hipoteza pomaže u obradi prirodnog jezika? • Pomaže u učenju ugrađenih vektora reči koji zadržavaju semantičke sličnosti. 4. Koje su kritike distribucione hipoteze? • Kritike uključuju ograničenja u hvatanju višeznačnosti reči i nedostatak sintaksičkih informacija. 5. Kako se distribuciona hipoteza implementira u praksi? • Implementira se obukom modela na velikim skupovima teksta kako bi se naučili ugrađeni vektori reči. Poglavlje 15: Povećanje podataka za tekst 1. Šta je povećanje podataka za tekst? • Povećanje podataka za tekst uključuje tehnike za generisanje dodatnih primeraka podataka iz postojećih, kako bi se poboljšala obuka modela. 2. Koje su tehnike za povećanje podataka za tekst? • Tehnike uključuju sinonim zamene, umetanje reči, brisanje reči, i parafraziranje. 3. Koje su prednosti povećanja podataka? • Prednosti uključuju poboljšanje robusnosti modela, smanjenje preprilagođavanja i poboljšanje generalizacije. 4. Kako se evaluiraju tehnike povećanja podataka? • Evaluacija se vrši upoređivanjem performansi modela na zadacima pre i posle povećanja podataka. 5. Koje su primene povećanja podataka za tekst? • Primene uključuju klasifikaciju teksta, prepoznavanje entiteta, i prevođenje. Poglavlje 16: Samopažnja 1. Šta je samopažnja? • Samopažnja je mehanizam koji omogućava modelima da procene važnost svake reči u odnosu na druge reči u sekvenci. 2. Kako funkcioniše mehanizam samopažnje? • Funkcioniše izračunavanjem pažnje pomoću vektora upita, ključeva i vrednosti, gde svaki element sekvence doprinosi izlazu na osnovu pažnje. 3. Koje su prednosti samopažnje? • Prednosti uključuju sposobnost da hvata dugačke zavisnosti i paralelnu obradu podataka. 4. Koje su primene samopažnje? • Primene uključuju mašinsko prevođenje, generisanje teksta, i prepoznavanje govora. 5. Kako samopažnja poboljšava performanse modela? • Poboljšava performanse omogućavajući modelima da bolje razumeju kontekst i međuzavisnosti u podacima. Poglavlje 17: Transformatori u smislu kodera i dekodera 1. Kako funkcionišu transformatori u smislu kodera i dekodera? • Transformatori u smislu kodera i dekodera sadrže dva glavna dela: koder koji kodira ulazne podatke i dekoder koji generiše izlazne podatke. 2. Koje su komponente kodera u transformatoru? • Komponente uključuju višeslojni mehanizam samopažnje, neuronske mreže prosleđivanja unapred, i pozicijske kodere. 3. Koje su komponente dekodera u transformatoru? • Komponente uključuju mehanizam samopažnje, pažnju prema izlazima kodera, neuronske mreže prosleđivanja unapred, i pozicijske kodere. 4. Koje su primene transformatora u smislu kodera i dekodera? • Primene uključuju mašinsko prevođenje, sumiranje teksta, i sisteme za dijalog. 5. Kako transformatori u smislu kodera i dekodera poboljšavaju zadatke generisanja teksta? • Poboljšavaju zadatke hvatajući složene zavisnosti u ulaznim i izlaznim sekvencama, omogućavajući preciznije generisanje teksta. Poglavlje 18: Korišćenje i fino podešavanje unapred obučenih transformatora 1. Šta je fino podešavanje unapred obučenih transformatora? • Fino podešavanje uključuje prilagođavanje unapred obučenih modela specifičnim zadacima koristeći manje skupove podataka. 2. Koji su koraci u finom podešavanju transformatora? • Koraci uključuju inicijalizaciju sa unapred obučenim težinama, prilagođavanje hiperparametara, i obuku na specifičnom zadatku. 3. Koje su prednosti korišćenja unapred obučenih transformatora? • Prednosti uključuju smanjenje potrebnih resursa za obuku, poboljšane performanse, i brže vreme razvoja. 4. Koji su izazovi u finom podešavanju? • Izazovi uključuju potrebu za prilagođavanjem hiperparametara, preprilagođavanje na manji skup podataka, i upravljanje memorijskim zahtevima. 5. Koji su popularni unapred obučeni transformatori? • Popularni modeli uključuju BERT, GPT-3, RoBERTa, i T5. Poglavlje 19: Evaluacija generativnih velikih jezičkih modela 1. Kako se evaluiraju generativni veliki jezički modeli? • Evaluacija se vrši upotrebom metričkih performansi kao što su perpleksnost, BLEU ocene, i ljudska procena. 2. Koje su metričke performanse za generativne modele? • Metričke performanse uključuju BLEU, ROUGE, METEOR, i ljudsku procenu fluentnosti i koherentnosti. 3. Koji su izazovi u evaluaciji generativnih modela? • Izazovi uključuju subjektivnost ljudske procene, evaluaciju kreativnosti i koherentnosti generisanog teksta. 4. Kako ljudska evaluacija doprinosi proceni modela? • Ljudska evaluacija daje uvid u kvalitet, koherentnost i prirodnost generisanog teksta. 5. Koje su primene evaluacije generativnih modela? • Primene uključuju procenu modela za zadatke kao što su generisanje dijaloga, kreiranje priča i mašinsko prevođenje. DEO IV: PROIZVODNJA I IMPLEMENTACIJA Poglavlje 20: Obuka sa i bez stanja 1. Šta je obuka sa stanjem? • Obuka sa stanjem koristi modele poput rekurentnih neuronskih mreža (RNN) koje zadržavaju unutrašnje stanje (memoriju) između koraka obuke. 2. Koje su vrste modela sa stanjem? • Primeri uključuju arhitekturu dugotrajne memorije (LSTM) i modele sa povratnim propusnim jedinicama (GRU). 3. Koje su prednosti obuke sa stanjem? • Prednosti uključuju bolje hvatanje sekvencijalnih zavisnosti i pamćenje prethodnih informacija, što je korisno za zadatke kao što su prepoznavanje govora i generisanje teksta. 4. Koji su izazovi obuke sa stanjem? • Izazovi uključuju probleme sa dugoročnom zavisnošću, složenost obuke i veće potrebe za računarskim resursima. 5. Šta je obuka bez stanja? • Obuka bez stanja koristi modele kao što su neuronske mreže prosleđivanja unapred i transformatori koji ne zadržavaju unutrašnje stanje između koraka obuke. 6. Koje su prednosti obuke bez stanja? • Prednosti uključuju paralelizaciju obuke, bržu konvergenciju i jednostavniju implementaciju. 7. Koji su primeri modela bez stanja? • Primeri uključuju klasične neuronske mreže (ANN), konvolucione neuronske mreže (CNN) i arhitekture transformatora. 8. Kako se biraju modeli sa ili bez stanja? • Izbor zavisi od prirode zadatka: modeli sa stanjem su bolji za sekvencijalne podatke, dok su modeli bez stanja efikasniji za zadatke kao što su klasifikacija slika. Poglavlje 21: Veštačka inteligencija orijentisana na podatke 1. Šta je veštačka inteligencija orijentisana na podatke? • Veštačka inteligencija orijentisana na podatke fokusira se na korišćenje velikih količina podataka za obučavanje modela i donošenje odluka. 2. Koje su ključne komponente veštačke inteligencije orijentisane na podatke? • Ključne komponente uključuju prikupljanje, obradu i analizu podataka, kao i razvoj modela za predikciju i odlučivanje. 3. Koje su prednosti veštačke inteligencije orijentisane na podatke? • Prednosti uključuju bolje performanse modela, mogućnost rada sa raznovrsnim podacima i skalabilnost. 4. Koji su izazovi veštačke inteligencije orijentisane na podatke? • Izazovi uključuju kvalitet podataka, obradu velikih količina podataka, zaštitu privatnosti i etičke probleme. 5. Kako se podaci prikupljaju za veštačku inteligenciju orijentisanu na podatke? • Podaci se prikupljaju iz različitih izvora kao što su senzori, baze podataka, internet, društvene mreže i transakcijski sistemi. 6. Kako se podaci obrađuju i pripremaju? • Podaci se obrađuju kroz procese kao što su čišćenje, transformacija, normalizacija i integracija pre nego što se koriste za obuku modela. 7. Koje su primene veštačke inteligencije orijentisane na podatke? • Primene uključuju personalizovane preporuke, analitiku velikih podataka, prediktivno održavanje, i poslovnu inteligenciju. 8. Koje tehnologije podržavaju veštačku inteligenciju orijentisanu na podatke? • Tehnologije uključuju baze podataka, platforme sa velikim skupovima podataka (Hadoop, Spark), računarstvo u oblaku, i alate za analitiku (Tableau, Power BI). Poglavlje 22: Ubrzavanje zaključivanja 1. Šta je ubrzavanje zaključivanja? • Ubrzavanje zaključivanja odnosi se na tehnike i metode koje smanjuju vreme potrebno za izvođenje modela na novim podacima. 2. Zašto je važno ubrzavanje zaključivanja? • Važno je za aplikacije koje se izvršavaju u realnom vremenu kao što su autonomna vozila, prepoznavanje lica, i interaktivni asistenti. 3. Koje su tehnike za ubrzavanje zaključivanja? • Tehnike uključuju kvantizaciju modela, proređivanje, optimizaciju softvera, i korišćenje specijalizovanog hardvera kao što su procesorske jedinice za tenzore (TPU). 4. Šta je kvantizacija modela? • Kvantizacija smanjuje preciznost težina modela (npr. od 32-bitnih do 8-bitnih) kako bi se smanjila memorijska potrošnja i ubrzalo izvođenje. 5. Kako proređivanje funkcioniše? • Proređivanje uklanja nepotrebne težine i čvorove iz modela, smanjujući njegovu veličinu i povećavajući brzinu izvođenja. 6. Koje su optimizacije softvera za ubrzavanje zaključivanja? • Optimizacije uključuju korišćenje efikasnih biblioteka (npr. TensorRT), paralelizaciju operacija, i optimizaciju memorijskih pristupa. 7. Kako specijalizovani hardver pomaže u ubrzavanju zaključivanja? • Specijalizovani hardver kao što su GPU i TPU procesori su dizajnirani za ubrzavanje izvođenja modela mašinskog učenja kroz paralelnu obradu i optimizovane arhitekture. 8. Koje su primene ubrzavanja zaključivanja? • Primene uključuju mobilne aplikacije, IoT uređaje, virtuelne asistente, i druge aplikacije gde je brzina ključna. Poglavlje 23: Promene u raspodeli podataka 1. Šta su promene u raspodeli podataka? • Promene u raspodeli podataka javljaju se kada raspodele podataka za obučavanje nisu iste kao raspodele podataka u proizvodnji ili skupovima za testiranje. 2. Koji su uzroci promena u raspodeli podataka? • Uzroci uključuju promene u vremenu, različite izvore podataka, promene u korisničkom ponašanju, i nove okolnosti ili događaje. 3. Kako se detektuju promene u raspodeli podataka? • Detekcija se vrši analizom statističkih svojstava podataka, korišćenjem kliznih prozora za analizu, vizuelizacijom podataka i evaluacijom performansi modela na novim podacima. 4. Koji su efekti promena u raspodeli podataka? • Efekti uključuju smanjenje tačnosti modela, povećanje grešaka, i smanjenje pouzdanosti predikcija. 5. Kako se prilagođavaju modeli promenama u raspodeli podataka? • Prilagođavanje uključuje ponovno obučavanje modela, učenje prenosom znanja, korišćenje robustnih modela, i tehnike prilagođavanja domena. 6. Šta je prilagođavanje domena? • Prilagođavanje domena uključuje prilagođavanje modela da radi na novim raspodelama podataka bez ponovnog obučavanja na celokupnom novom skupu podataka. 7. Koje su tehnike za prilagođavanje domena? • Tehnike uključuju korišćenje zajedničkih karakteristika između domena, suparničko obučavanje, i učenje prenosom znanja. 8. Koje su primene prilagođavanja promenama u raspodeli podataka? • Primene uključuju prilagođavanje sistema za preporučivanje, prilagođavanje modela za finansijske prognoze, i održavanje tačnosti predikcija u medicinskim sistemima. DEO V: PREDIKTIVNE PERFORMANSE I EVALUACIJA MODELA Poglavlje 24: Puasonova i ordinalna regresija 1. Šta je Puasonova regresija? • Puasonova regresija je statistički model za modeliranje prebrojivih podataka koji prate Puasonovu raspodelu. 2. Kada se koristi Puasonova regresija? • Koristi se kada su zavisne promenljive celobrojne, nenegativne vrednosti kao što su broj događaja u određenom vremenskom periodu. 3. Šta je ordinalna regresija? • Ordinalna regresija je model koji se koristi za predikciju zavisnih promenljivih koje su ordinalne promenljive. 4. Kada se koristi ordinalna regresija? • Koristi se kada su kategorije zavisne promenljive rangirane, kao što su ocene zadovoljstva (npr. nesrećan, neutralan, srećan). 5. Koje su prednosti korišćenja ovih regresionih modela? • Prednosti uključuju mogućnost preciznog modeliranja specifičnih tipova podataka i bolje razumevanje odnosa među promenljivama. Poglavlje 25: Intervali poverenja 1. Šta su intervali poverenja? • Intervali poverenja predstavljaju raspon vrednosti unutar kojih se očekuje da se nalazi stvarna vrednost parametra uz određeni nivo poverenja. 2. Kako se izračunavaju intervali poverenja? • Izračunavaju se korišćenjem statističkih formula koje uzimaju u obzir srednju vrednost, standardnu devijaciju i veličinu uzorka. 3. Koji su nivoi poverenja najčešće korišćeni? • Najčešće korišćeni nivoi poverenja su 95% i 99%. 4. Kako intervali poverenja pomažu u evaluaciji modela? • Pomažu u proceni pouzdanosti predikcija modela i kvantifikovanju nesigurnosti. 5. Koje su primene intervala poverenja? • Primene uključuju ocenjivanje parametara u regresionim modelima, testiranje hipoteza i donošenje odluka zasnovanih na podacima. Poglavlje 26: Intervali poverenja naspram konformna predviđanja 1. Šta su konformna predviđanja? • Konformna predviđanja su metod koji izračunava intervale predviđanja sa zagarantovanim nivoom poverenja za bilo koji model. 2. Kako se razlikuju intervali poverenja od konformnih predviđanja? • Intervali poverenja se odnose na ocenjivanje parametara modela, dok konformna predviđanja daju intervale za predikcije novog podatka. 3. Koje su prednosti konformnih predviđanja? • Prednosti uključuju fleksibilnost i garancije za tačnost predikcija nezavisno od raspodele podataka. 4. Koje su primene konformnih predviđanja? • Primene uključuju medicinsku dijagnostiku, finansijske prognoze, i sve aplikacije gde je važna preciznost predikcija. 5. Kako se konformna predviđanja računaju? • Računaju se pomoću algoritama koji prilagođavaju predikcije tako da zadovolje unapred definisan nivo poverenja. Poglavlje 27: Adekvatne metrike 1. Šta su adekvatne metrike u evaluaciji modela? • Adekvatne metrike su metričke performanse koje tačno odražavaju uspešnost modela u kontekstu specifičnog zadatka. 2. Koje su zajedničke metričke performanse? • Zajedničke metrike uključuju tačnost, preciznost, odziv, F1 ocenu, AUC-ROC, i srednje- kvadratnu grešku. 3. Kako se biraju adekvatne metrike? • Biraju se na osnovu prirode problema, vrste podataka, i specifičnih ciljeva evaluacije. 4. Zašto je važno koristiti adekvatne metrike? • Važno je za tačno procenjivanje performansi modela i donošenje informisanih odluka. 5. Koji su izazovi u izboru adekvatnih metrika? • Izazovi uključuju balansiranje između različitih aspekata performansi i prilagođavanje specifičnostima aplikacije. Poglavlje 28: K u K-struko unakrsnoj proveri valjanosti 1. Šta je k-struka unakrsna provera valjanosti? • K-struka unakrsna provera valjanosti je metoda evaluacije modela gde se podaci dele na K podskupova, a model se obučava i testira k puta, svaki put koristeći različiti podskup kao skup za testiranje. 2. Koje su prednosti k-struke unakrsne provere valjanosti? • Prednosti uključuju smanjenje varijacije performansi zbog različitih podela za obučavanje- testiranje i bolje iskorišćenje podataka. 3. Kako se bira vrednost k? • Vrednost k se bira na osnovu veličine skupa podataka, često koristeći k=5 ili k=10 kao standardne vrednosti. 4. Koje su primene k-struke unakrsne provere valjanosti? • Primene uključuju evaluaciju modela u mašinskom učenju, posebno kada su dostupni podaci ograničeni. 5. Koje su alternativne metode unakrsne provere valjanosti? • Alternativne metode uključuju unakrsnu proveru valjanosti ostavljanjem jednog podatka, sratifikovanu unakrsnu proveru valjanosti i ugneždenu unakrsnu proveru valjanosti. Poglavlje 29: Neslaganje između skupa za obuku i skupa za testiranje 1. Šta je neslaganje između skupa za obuku i skupa za testiranje? • Neslaganje se javlja kada raspodele podataka za obučavanje i testiranje nisu identične, što može dovesti do loših performansi modela na novim podacima. 2. Koji su uzroci neslaganja? • Uzroci uključuju promene u vremenu, različite izvore podataka i promene u okolini u kojoj su podaci prikupljeni. 3. Kako se detektuje neslaganje? • Detekcija se vrši analizom statističkih svojstava podataka, vizuelizacijom podataka i evaluacijom performansi modela na različitim podskupovima. 4. Koje su metode za prilagođavanje neslaganju? • Metode uključuju prilagođavanje domenu, učenje prenosom znanja, i korišćenje robusnih modela. 5. Koje su posledice neslaganja? • Posledice uključuju smanjenu tačnost modela, lošu generalizaciju i nepouzdane predikcije. Poglavlje 30: Ograničeni označeni podaci 1. Kako se nositi sa ograničenim označenim podacima? • Korišćenjem tehnika kao što su povećanje podataka, polu-nadgledano učenje, učenje prenosom znanja i aktivno učenje. 2. Šta je polu-nadgledano učenje? • Polu-nadgledano učenje koristi mali broj označenih podataka zajedno sa velikim brojem neoznačenih podataka za obuku modela. 3. Šta je učenje prenosom znanja? • Učenje prenosom znanja koristi modele obučene na jednom zadatku i prilagođava ih za drugi srodni zadatak sa manjim brojem označenih podataka. 4. Šta je aktivno učenje? • Aktivno učenje je tehnika gde model aktivno bira koji podaci treba da budu označeni kako bi se maksimizirala njegova obuka. 5. Koje su prednosti korišćenja ovih tehnika? • Prednosti uključuju poboljšane performanse modela, bolju generalizaciju i efikasnije korišćenje ograničenih resursa.
 
   

 

Veze, linkovi
Linkedin Twitter Facebook
 
     
 
© Sva prava pridržana, Kompjuter biblioteka, Beograd, Obalskih radnika 4a, Telefon: +381 11 252 0 272
 
     
z