Povijest Umjetne Inteligencije

Gestacija Umjetne Inteligencije (1943-1955)

Prvi znanstveni rad koji je danas generalno priznat kao umjetna inteligencija djelo je Warrena McCullocha i Waltera Pittsa. Kao bazu za njihov projekt uzeli su tri izvora; znanje osnova psihologije i funkcije neurona u mozgu, formalnu analizu propozicijske logike (Russell i Whitehead), te Turingovu teoriju komputacije. 

Predložili su model mreže umjetno stvorenih neurona gdje svaki neuron može biti u aktivnom ili neaktivnom stanju, sa prekidačem za aktivaciju koji se aktivira kao posljedica aktivacije dovoljnog broja njegovih susjednih neurona. Pokazali su da se bilo koja računska funkcija može prikazati i izračunati preko mreže međusobno povezanih neurona. Uz to su pokazali da se svi logički operatori mogu implementirati preko jednostavne mrežne strukture. Također su predložili da dovoljno razvijena takva neuronska mreža može imati sposobnost učenja. Donald Hebb (1949) demonstrirao je jednostavno pravilo za jačanje veza među neuronima. Njegovo pravilo, zvano Hebbiansko učenje ostaje utjecajni model i dan danas.

Marvin Minsky i Dean Edmunds, studenti Harvarda, izgradili su prvo računalo sa neuronskom mrežom 1950. Računalo se zvalo SNARC, koristilo je 3000 vakuumskih cijevi i mehanizam za automatsko navođenje bombardera B-24 za simulaciju neuronske mreže s 40 neurona. 

Postoji određeni broj radova koji se mogu okarakterizirati kao pokušaji stvaranja umjetne inteligencije ali najutjecajnija je bila vizija Alana Turinga. Držao je predavanja na tu temu već 1947. u Londonskom Matematičkom Društvu, a svoje napredne ideje je objavio 1950. u članku zvanom "Computing Machinery and Intelligence". U tom članku uveo je pojmove Turingov Test, strojno učenje, genetski algoritmi i pojačanje učenja. Predložio je ideju zvanu Child Programme, objašnjavajući da "Umjesto da pokušavamo simulirati um odraslog čovjeka, zašto ne bismo radije pokušali producirati simulaciju uma djeteta?"





SNARC
SNARC

Rođenje Umjetne Inteligencije (1956)

Princeton je bio dom još jednoj utjecajnoj osobi u području umjetne inteligencije, Johnu McCarthyju. Nakon što je diplomirao tamo 1951., nakon dvije godine odlazi u Stanford  te naposljetku na Dartmouth College, koji postaje službeno rodno mjesto područja Umjetna Inteligencija. Uvjerio je kolege Minsky, Claude Shannona i Nathaniela Rochestera da mu pomognu okupiti tim američkih istraživača zainteresiranih u teoriju automata, neurološke mreže te istraživanje inteligencije. Organizirali su dvomjesečnu radionicu u Johnu McCarthyju

Deset okupljenih znanstvenika, među kojima  Trenchard More s Princetona, Arthur Samuel iz IBM-a te Ray Solomonoff i Oliver Selfridge s MIT-a, započeli su rad s pretpostavkom da se svaki aspekt učenja ili bilo koja druga odlika inteligencije mogu toliko precizno opisati da se može simulirati pomoću stroja. 

Među njima su se najviše istaknuli dvojac sa Carnegie Tech-a, Allen Newell i Herbert Simon. Dok su ostali razvijali druge ideje i u nekim slučajevima programe za specifične aplikacije poput igre "Checkers", njih dvojica su već imali razvijen program za rasuđivanje zvan "The Logic Theorist" (LT), za kojeg je Simon tvrdio "Izumili smo računalni program sposoban za nenumeričko razmišljanje te time riješili problem postojanja uma bez fizičkog tijela." 

Ubrzo nakon radionice program je demonstrirao sposobnost dokazivanja većine teorema iz rada Russela i Whiteheada zvanog "Principia Matematica". Russell je bio obradovan kada mu je Simon demonstrirao da je program sposoban dokazati jedan od teorema puno kraćim postupkom nego opisanim u njegovom radu. 

Dartmouthska radionica na poslijetku nije dovela do značajnijih znanstvenih napredaka, ali je upoznala sve vodeće stručnjake tog područja jedne s drugima. Kroz sljedećih 20 godina upravo ti ljudi, njihovi učenici te kolege su dominirali na području umjetne inteligencije.



Početni entuzijazam, velika očekivanja 

(1952-1969)

Raniji uspjesi Newella i Simona unaprijeđeni su s izumom General Program Solvera, odnosno GPS-a. Za razliku od Logic Theorista ovaj program je od početka bio dizajniran da imitira ljudske protokole za rješavanje problema. Testiran na zagonetkama ograničene kompleksnosti, pokazalo se da poredak kojim program rješava podzadatke i njegov način baratanja sa mogućim potezima odgovara onima čovjeka. General Program Solver je najvjerojatnije prvi program koji je utjelovio ideju stroja koji razmišlja poput čovjeka. Kao uspjeh GPS-a i njegovih programa sljedbenika kao kognitivnih modela je dovelo Newella i Simona do formulacije njihove poznate hipoteze, sistema fizičkih simbola. Ta hipoteza predlaže da bilo kakva demonstracija inteligencije, bilo od čovjeka ili stroja mora funkcionirati koristeći manipulaciju struktura podataka načinjenih od simbola. 

U IBM-u Nathaniel Rochester i njegovi kolege proizveli su neke od prvih programa umjetne inteligencije. Herbert Gelernter je 1959. konstruirao "Geometry Theorem Prover", taj program je bio sposoban dokazati teoreme koji su većini studenata matematike bili zahtjevni. 


Počevši 1952. godine Arthur Samuel napisao je seriju programa za igranje "Checkersa" (Dame), koji su eventualno "naučili" igrati na nivou naprednijeg amatera. Tijekom razvoja tih programa je osporio ideju da računala mogu napraviti samo ono za što su stvorena; njegovi programi su jako brzo naučili igrati igru bolje od njihovog kreatora. Program je demonstrirao u veljači 1956. godine na nacionalnoj televiziji te ostavio impresivan dojam.


John McCarthy se preselio s Dartmoutha na MIT i tamo napravio tri ključna doprinosa u jednoj povijesnoj godini: 1958. Konstruirao je programski jezik visoke kompleksnosti zvan Lisp koji je dominirao sljedećih 30 godina kao vodeći alat u konstruiranju umjetne inteligencije.  Zbog nedostatka hardverske opreme i ostalih potrebnih resursa, McCarthy i njegovi kolege s MIT-a su izumili ekstenziju tehnike multiprogramiranja zvanu "Time sharing". Iste godine objavio je članak pod nazivom "Programs with Common Sense" u kojem je opisao Advice Taker, hipotetski program koji bi potencijalno bio prvi potpuni sustav umjetne inteligencije. Poput Logic Theorista i GPS-a, McCarthyijev program je bio dizajniran da se služi znanjem kako bi pronašao rješenja za probleme. Na primjer, pokazao je kako je neki jednostavni aksiom dovoljan da omogući programu da generira plan vožnje do aerodroma. Program je također bio dizajniran da prihvati nove aksiome tijekom izvršavanja zadatka, što mu je omogućavalo da postigne uspješnost u novim područjima bez reprogramiranja. The Advice Taker je utjelovio centralne principe predstavljanja znanja i razlučivanja. Pokazao je da je korisno imati formalnu, eksplicitnu reprezentaciju svijeta oko nas i načina na koji funkcionira te da je sposoban manipulirati tu reprezentaciju koristeći proces dedukcije. Nevjerojatno je koliko taj članak iz 1958. godine ostaje relevantan i danas. 

1958. je također označio Minskyijev prelazak na MIT, gdje njegova početna suradnja s McCarthyjem nije dugo trajala. McCarthy je stavljao naglasak na reprezentaciji i razlučivanju u formalnoj logici, dok je Minsky više bio zainteresiran da stvara programe koji zapravo i rade, te naposljetku razvio anti-logički pogled. Minsky je nadgledao seriju studenata koji su izabrali ograničene probleme za čije je rješavanje bila potrebna inteligencija. Ta ograničena područja postaju poznata pod nazivom "microworlds".

  • James Slagle- program SAINT (1963): program sposoban da riješi integracijske probleme zatvorenog formata tipične za kolegije prve godine fakulteta
  • Tom Evans- program ANALOGY (1968): program sposoban da riješi analogne geometrijske probleme koji se pojavljuju u IQ testovima
  • Daniel Bobrow- program STUDENT (1967): program sposoban da riješi opisne problemske zadatke 


Doza realnosti (1966-1973)

Od početka istraživači umjetne inteligencije se nisu sramili davati izjave o njihovim budućim uspjesima. u terminima vidljive budućnosti Simon je davao predviđanja s većom dozom realizma. Predviđao je da će u sljedećih deset godina računalo biti šahovski prvak i moći dokazivati dosad ne dokazane matematičke teoreme, preračunao se za nekih 30 godina. Simonovo pretjerano samopouzdanje je bilo bazirano na uspjesima prvih sustava umjetne inteligencije, no ti sustavi su se pokazali ne dostatnima kada su bili isprobani na široj paleti problema i pri rješavanju težih problema.

Prva vrsta problema pojavila se u činjenici da ti raniji programi nisu znali ništa o tome što rješavaju i izračunavaju, bili su uspješni samo kada bi se problem pojednostavio sintaktičkom manipulacijom.

Druga vrsta problema pojavila se u činjenici da su problemi koje su ti prvi programi rješavali bili "tvrdoglavi". Većina tih ranijih programa je rješavala probleme tako da isprobavaju sve moguće kombinacije koraka dok se ne dođe do rješenja. Ova strategija je isprva funkcionirala zato što su mikrosvijetovi sadržavali vrlo mali broj objekata te je zbog toga bio jako mali broj mogućih akcija i kratke sekvence rješavanja. Prije nego što je teorija računske kompleksnosti bila razvijena vjerovalo se da je povećanje težine i kompleksnosti problema jedino bilo moguće riješiti koristeći napredniji hardver i veće kapacitete memorije. 

Raniji eksperimenti u strojnoj evoluciji (danas zvanoj genetski algoritmi) su bili bazirani na nepobitno točnom vjerovanju da ako se stvore prikladne serije manjih mutacija u programskom hodu stroja, moguće je generirati program sa dobrim performansom u bilo kojoj vrsti zadatka. Ideja je onda bila da se isprobaju nasumične mutacije sa selekcijskim procesima kako bi se očuvale mutacije koje su se činile korisnima. Unatoč tisućama radnih sati procesora skoro nikakav napredak nije bio pokazan. Moderni genetski algoritmi koriste bolje reprezentativne modele i pokazali su veći uspjeh.  

Treća vrsta problema je nastala zbog temeljnih ograničenja na bazičnim strukturama koje su bile korištene za generaciju inteligentnog ponašanja. Na primjer, knjiga pod nazivom "Perceptrons" (1969) autora Minskyja i Paperta dokazala je da, iako perceptroni (jednostavni oblici neuronskih mreža) mogu naučiti sve za što su bili sposobni reprezentirati, mogli su reprezentirati jako malo. Preciznije, perceptron sa dva ulaza nije bilo moguće naučiti da prepozna kada su ta dva ulaza bila različita. Zbog toga što se njihovi rezultati nisu odnosili na kompleksnije, višeslojne neuronske mreže svi financijski poticaji su nestali te je razvoj tog smjera obustavljen. Ironično, noviji algoritmi za učenje s unatražnim rasprostiranjem dizajnirani za višeslojne neuronske mreže koji su potakli ogromni povratak na istraživanja za neuronske mreže kasnijih 1980ih su upravo bili prvi puta otkriveni 1969.

Umjetna Inteligencija postaje industrija (1980-danas)

Prvi uspješni komercijalni sustav, RI, proizveden je u Digital Equipment Corporation 1982. Program je pomogao konfigurirati narudžbe za nove računalne sustave, do 1986. štedio je kompaniji oko 40 miliona dolara godišnje. Do 1988. ista kompanija je izdala još 40 stručnih sustava poput ovoga. DuPont je imao 100 takvih sustava u korištenju te još 500 u razvoju, štedeći oko 10 milijuna dolara godišnje. Skoro svaka velika korporacija bazirana u SAD-u je imala svoju grupu sustava umjetne inteligencije te je ili koristila ili ulagala u takve napredne sustave. Sveukupno, ta nova industrija je narasla od par milijuna dolara godišnje 1980. do više milijardi dolara 1988., uključujući stotine kompanija koje grade takve sustave za vid, robote, te softvere i hardvere specijalizirane upravo za tu industriju.

Povratak neuronskih mreža (1986-danas)

Sredinom 1980-ih barem četiri različite grupe su unaprijedile algoritam za učenje s unatražnim rasprostiranjem osnovan 1969. (Bryson i Ho). Algoritam je bio primijenjen na veliki broj problema s učenjem u računalnim znanostima i psihologiji, a svekupno širenje tog razvoja je sažeto u kolekciji "Parallel Distributed Processing" (Rumelhart i McClelland, 1986.). Ovi takozvani konektivni modeli za inteligentne sustave su bili viđeni kao direkna konkurencija za simboličke modele Newella i Simona te za logističke pristupe McCarthyja i ostalih.

 Moderna istraživanja u području neuronskih mreža se granaju na dva područja, jedno koje se bavi sa stvaranjem efektivnih mrežnih arhitektura i algoritama i shvaćanjem nihovih svojstava dok se drugo područje usredotočilo na pažljivo modeliranje empirijskih svojstava pravih neurona i njihovih struktura.


Pojava inteligentnih agenata (1995-danas)

Allen Newell, John Laird i Paul Rosenbloom i njihov rad na kognitivnoj arhitekturi pod nazivom SOAR je najpoznatiji primjer potpune arhitekture agenta. Jedno od najbitnijih okolina za inteligentni agent je internet. Sustavi umjetne inteligencije su postali toliko učestali u aplikacijama bazirane na Web-u da se danas sufiks "bot" koristi u svakodnevnom jeziku. Štoviše, umjetna inteligencija se koristi u velikom broju internetskih alata, od pretraživača, preporučenih sistema do agregata internetskih stranica. 

Unatoč raznim uspjesima i korisnosti najčešćih primjena umjetne inteligencije danas, imena utjecajnih osnivača tog područja poput McCarthy, Minsky, Nilsson i Winston smatraju da je napredak umjetne inteligencije otišao u krivom smjeru. Njihovo je mišljenje da bi se trebala pažnja maknuti sa konstantnog unaprjeđenja aplikacija koje su dobre kod specifičnih zadataka, poput vožnje auta, igranja šaha, prepoznavanja govora...Umjesto toga, predlažu da se razvoj vrati svojim korijenima, strojevima koje misle, uče i stvaraju. Taj pokret nazivaju "human-level AI" ili "HLAI". Njihov prvi simpozij je bio 2004. godine.  

Dostupnost velikog broja skupova podataka (2001-danas)

Kroz prvih 60 godina povijesti računalnih znanosti, naglasak je bio na algoritmima kao glavnom predmetu istraživanja. Ali nedavni radovi u području umjetne inteligencije predlažu da se za većinu problema više isplati posvetiti na podatke, a ne toliko na izbor dostatnoga algoritma. Ovo je istina zbog ogromne količine skupova podataka koji samo rastu, na primjer, milijarde riječi engleskog jezika ili slika na Web-u, ili na primjer milijarde parova baza genomskih sljedova.

Jedan od utjecajnijih radova na ovu temu je bio algoritam Davida Yarowskog 1995. na temu razjašnjenja riječi: na primjer, ako imamo englesku riječ "plant" u rečenici, da li se to odnosi na biljku ili tvordnicu? Prethodni pristupi ovom problemu su se bazirali na tome da čovjek pojasni računalu kontekst određene riječi u kombinaciji sa algoritmima za strojno učenje. Yarowsky je pokazao da se taj zadatak može izvršiti sa točnošću preko 96% bez davanja ikakvih pojašnjenja i primjera. Umjesto toga, njegov pristup je da se da ogromna količina teksta bez objašnjenja i konteksta te sve moguće definicije za određenu riječ uzete iz rječnika, te se tako omogući sustavu da uči nove uzorke koji mu pomažu kod novih primjera i problema. Banko i Brill (2001) pokazali su da se takva tehnika može puno bolje izvesti ako se dostupni tekst poveća sa milijun riječi na milijardu i više te da se u povećanju performansa kroz korištenje veće količine podataka izostavlja potreba za biranjem "pravog" algoritma.

Još jedan primjer su nam dali Hays i Efros 2007. godine. Diskutirali su o problemu "krpanja" rupa na fotografiji. Pretpostavimo da koristimo Photoshop da izostavimo osobu sa grupne fotografije. Kada to napravimo moramo upotpuniti prazan prostor koji je nastao te nastojati da savršeno odgovara okolini. Dvojac je dizajnirao algoritam koji pretražuje kroz kolekciju fotografija kako bi našao uzorak koji odgovara. Primjetili su da je uspješnost njihovog algoritma bila neusporedivo bolja kada su umjesto deset tisuća fotografija prebacili se na brojku od dva milijuna.

Ovakvi radovi sugeriraju da problemi u učenju sustava umjetne inteligencije, problema kako prenositi znanje direktno u sustav, se može riješiti u velikom broju slučajeva koristeći metode učenja umjesto ručno kodiranog znanja, pod pretpostavkom da algoritam za učenje ima dovoljno veliku bazu podataka kroz koju može prolaziti.  

Create your website for free! This website was made with Webnode. Create your own for free today! Get started