Historie umělé inteligence

Toto je dílčí článek o umělé inteligenci, který se zaměřuje na vývoj a historii umělé inteligence.

Lidé vždy spekulovali o povaze mysli, myšlení a jazyka a hledali diskrétní reprezentace svých znalostí. Aristoteles se pokusil tyto spekulace formalizovat pomocí sylogistické logiky, která zůstává jednou z klíčových strategií umělé inteligence. První is-a hierarchie byla vytvořena v roce 260 Porfyriem z Tyrosu. Klasičtí a středověcí gramatici zkoumali jemnější rysy jazyka, které Aristoteles zkrátil, a matematik Bernard Bolzano učinil v roce 1837 první moderní pokus o formalizaci sémantiky.

Rané konstrukce počítačů se řídily především složitou matematikou potřebnou k přesnému zaměření zbraní, přičemž analogová zařízení se zpětnou vazbou inspirovala ideálem kybernetiky. Výraz „umělá inteligence“ byl zaveden jako „digitální“ náhrada analogové „kybernetiky“.

Velká část (původního) zaměření výzkumu umělé inteligence vychází z experimentálního přístupu k psychologii a klade důraz na to, co lze nazvat jazykovou inteligencí (nejlepším příkladem je Turingův test).

Mezi přístupy k umělé inteligenci, které se nezaměřují na jazykovou inteligenci, patří robotika a kolektivní inteligence, které se zaměřují na aktivní manipulaci s prostředím nebo na rozhodování na základě konsenzu a při hledání modelů organizace „inteligentního“ chování vycházejí z biologie a politologie.

Umělá inteligence čerpá také ze studií na zvířatech, zejména na hmyzu, který lze snáze napodobit jako roboty (viz umělý život), a také na zvířatech se složitějším poznáním, včetně opic, které se v mnoha ohledech podobají lidem, ale mají méně rozvinuté schopnosti plánování a poznávání. Někteří badatelé tvrdí, že zvířata, která jsou zjevně jednodušší než lidé, by měla být podstatně snadněji napodobitelná. Uspokojivé výpočetní modely zvířecí inteligence však nejsou k dispozici.

K zásadním pracím o vývoji umělé inteligence patří A Logical Calculus of the Ideas Immanent in Nervous Activity (1943) Warrena McCullocha a Waltera Pittse, On Computing Machinery and Intelligence (1950) Alana Turinga a Symbióza člověka a počítače J. C. R. Licklidera. Další diskuse viz Kybernetika a Turingův test.

Existovaly také první práce, které popíraly možnost strojové inteligence z logických nebo filozofických důvodů, jako například Minds, Machines and Gödel (1961) od Johna Lucase.

S rozvojem praktických technik založených na výzkumu umělé inteligence zastánci umělé inteligence tvrdí, že odpůrci umělé inteligence opakovaně měnili svůj postoj k úlohám, jako jsou počítačové šachy nebo rozpoznávání řeči, které byly dříve považovány za „inteligentní“, aby popřeli úspěchy umělé inteligence. Douglas Hofstadter v knize Gödel, Escher, Bach poukázal na to, že toto posouvání cílů ve skutečnosti definuje „inteligenci“ jako „cokoli, co lidé dokážou a stroje ne“.

John von Neumann (citovaný E. T. Jaynesem) to v roce 1948 předvídal, když v reakci na poznámku na přednášce, že stroj nemůže myslet, řekl: „Trváte na tom, že existuje něco, co stroj nemůže dělat. Pokud mi přesně řeknete, co to je, co stroj nemůže dělat, pak mohu vždy vyrobit stroj, který bude dělat právě to!“. Von Neumann pravděpodobně narážel na Churchovu-Turingovu tezi, která říká, že jakýkoli efektivní postup lze simulovat (zobecněným) počítačem.

V roce 1969 zahájili McCarthy a Hayes diskusi o problému rámce esejí „Některé filozofické problémy z hlediska umělé inteligence“.

Umělá inteligence vznikla jako experimentální obor v 50. letech 20. století, kdy její průkopníci Allen Newell a Herbert Simon založili první laboratoř umělé inteligence na Carnegie Mellon University a John McCarthy a Marvin Minsky založili v roce 1959 laboratoř umělé inteligence na MIT. Ti všichni se v roce 1956 zúčastnili letní konference o umělé inteligenci na Dartmouth College, kterou pořádali McCarthy, Minsky, Nathan Rochester z IBM a Claude Shannon.

Historicky existují dva široké styly výzkumu umělé inteligence – „neats“ a „scruffies“. „Úhledný“, klasický nebo symbolický výzkum UI obecně zahrnuje symbolickou manipulaci s abstraktními pojmy a je metodikou používanou ve většině expertních systémů. Paralelně s tím existují „křupanské“ neboli „konekcionistické“ přístupy, jejichž nejznámějším příkladem jsou umělé neuronové sítě, které se snaží „vyvinout“ inteligenci prostřednictvím budování systémů a jejich následného zlepšování nějakým automatickým procesem, spíše než systematickým navrhováním něčeho pro splnění úkolu. Oba přístupy se v historii umělé inteligence objevily velmi brzy. V průběhu 60. a 70. let 20. století byly drhé přístupy zatlačeny do pozadí, ale zájem o ně se obnovil v 80. letech 20. století, kdy se jasněji ukázala omezení tehdejších „úhledných“ přístupů. Ukázalo se však, že současné metody využívající oba široké přístupy mají vážná omezení.

Výzkum umělé inteligence byl v osmdesátých letech 20. století velmi intenzivně financován Agenturou pro pokročilé obranné výzkumné projekty ve Spojených státech a projektem počítačových systémů páté generace v Japonsku. Neúspěch tehdy financovaných prací, které navzdory velkolepým slibům některých odborníků na umělou inteligenci nepřinesly okamžité výsledky, vedl koncem 80. let k odpovídajícímu výraznému omezení financování ze strany vládních agentur, což vedlo k celkovému útlumu činnosti v této oblasti známému jako „zima umělé inteligence“. V následujícím desetiletí se mnoho výzkumníků v oblasti umělé inteligence přesunulo do příbuzných oblastí se skromnějšími cíli, jako je strojové učení, robotika a počítačové vidění, ačkoli výzkum v oblasti čisté umělé inteligence pokračoval v omezeném rozsahu.

Skutečný svět je plný rušivých a zastírajících detailů: věda obecně postupuje tak, že se zaměřuje na uměle jednoduché modely reality (ve fyzice například na roviny bez tření a dokonale tuhá tělesa). V roce 1970 Marvin Minsky a Seymour Papert z laboratoře umělé inteligence MIT navrhli, aby se výzkum umělé inteligence podobně zaměřil na vývoj programů schopných inteligentního chování v uměle jednoduchých situacích, tzv. mikrosvětech. Velká část výzkumu se zaměřila na tzv. svět kvádrů, který se skládá z barevných kvádrů různých tvarů a velikostí rozmístěných na rovném povrchu. Umělá inteligence mikrosvěta

Doporučujeme:  Transsexuální sexualita

Přestože pokrok na cestě ke konečnému cíli, kterým je inteligence podobná člověku, byl pomalý, vzniklo v jeho průběhu mnoho vedlejších efektů. Mezi nejvýznamnější příklady patří jazyky LISP a Prolog, které byly vynalezeny pro výzkum umělé inteligence, ale nyní se používají i pro jiné úlohy než pro umělou inteligenci. Hackerská kultura nejprve vzešla z laboratoří umělé inteligence, zejména z laboratoře MIT AI Lab, kde v různých obdobích působily takové osobnosti jako John McCarthy, Marvin Minsky, Seymour Papert (který zde vyvinul Logo) a Terry Winograd (který opustil umělou inteligenci poté, co vyvinul SHRDLU).

Jazyky a styly programování umělé inteligence

Výzkum umělé inteligence vedl k mnoha pokrokům v programovacích jazycích, včetně prvního jazyka pro zpracování seznamů Allena Newella a dalších, dialektů jazyka Lisp, Planneru, Actors, metafory vědecké komunity, produkčních systémů a jazyků založených na pravidlech.

Výzkum GOFAI TEST se často provádí v programovacích jazycích, jako je Prolog nebo Lisp.
Při bayesovské práci se často používá Matlab nebo Lush (numerický dialekt jazyka Lisp). Tyto jazyky obsahují mnoho specializovaných pravděpodobnostních knihoven. Systémy reálného a zejména reálného času pravděpodobně používají jazyk C++. Programátoři umělé inteligence jsou často akademici a kladou důraz na rychlý vývoj a prototypování spíše než na neprůstřelné postupy softwarového inženýrství, proto se používají interpretované jazyky, které umožňují rychlé testování a experimentování v příkazovém řádku.

Nejzákladnějším programem umělé inteligence je jeden příkaz If-Then, například „If A, then B“. Pokud zadáte písmeno A, počítač vám zobrazí písmeno B. V podstatě učíte počítač, aby provedl určitý úkol. Zadáte jednu věc a počítač odpoví něčím, co jste mu řekli, aby udělal nebo řekl. Všechny programy mají logiku If-Then. Složitějším příkladem je, když zadáte „Dobrý den.“ a počítač odpoví „Jak se dnes máte?“. Tato odpověď není vlastní myšlenkou počítače, ale řádkem, který jste do programu napsali předtím. Kdykoli zadáte „Hello.“, počítač vždy odpoví „How are you today?“. Náhodnému pozorovateli to připadá, jako by počítač žil a přemýšlel, ale ve skutečnosti jde o automatickou odpověď. Umělá inteligence je často dlouhá řada příkazů typu If-Then (nebo Cause and Effect).

K tomu lze přidat náhodný výběr. Randomizér vytvoří dvě nebo více cest odezvy. Pokud například zadáte „Dobrý den“, počítač může odpovědět „Jak se dnes máte?“ nebo „Pěkné počasí“ nebo „Chcete si zahrát hru?“. Namísto jedné odpovědi jsou nyní možné tři odpovědi (neboli „thens“). Existuje stejná šance, že se zobrazí kterákoli ze tří odpovědí. Je to podobné jako u mluvící panenky na tahací šňůře, která může odpovídat několika výroky. Počítačový program s umělou inteligencí může mít na stejný vstup tisíce odpovědí. Díky tomu je méně předvídatelný a blíží se tomu, jak by reagoval skutečný člověk, pravděpodobně proto, že živí lidé reagují poněkud nepředvídatelně. Když jsou do programu umělé inteligence zapsány tisíce vstupů („if“) (nejen „Dobrý den.“) a tisíce odpovědí („then“), pak počítač může mluvit (nebo psát) s většinou lidí, pokud tito lidé znají vstupní řádky příkazu If, které mají napsat.

V mnoha hrách, jako jsou šachy a strategické hry, se místo psaných odpovědí používají akční odpovědi, takže hráči mohou hrát proti počítači. Roboti s mozkem umělé inteligence by k rozhodování a mluvení používali příkazy If-Then a randomizátory. Vstupem však může být namísto řádku „Ahoj.“ vycítěný objekt před robotem a odpovědí může být namísto řádku odpovědi zvednutí objektu.

Řecké mýty o Héfaistovi a Pygmalionu obsahují myšlenku inteligentních robotů. V 5. století př. n. l. vynalezl Aristoteles sylogistickou logiku, první formální deduktivní systém uvažování.

Španělský teolog Ramon Llull vynalezl ve 13. století papírové „stroje“ na objevování nematematických pravd pomocí kombinací slov ze seznamů.

V 15. a 16. století se na soustruzích začaly vyrábět hodiny, první moderní měřicí stroje.
Hodináři rozšířili své řemeslo na výrobu mechanických zvířat a dalších novinek.
Pražský rabín Juda Loew ben Bezalel údajně vynalezl Golema, oživlého hliněného člověka (1580).

Na počátku 17. století René Descartes navrhl, že těla zvířat nejsou nic jiného než složité stroje. Mnoho dalších myslitelů 17. století nabídlo varianty a rozpracování karteziánského mechanismu.
Thomas Hobbes vydal knihu Leviathan, která obsahuje materiální a kombinatorickou teorii myšlení.
Blaise Pascal vytvořil druhý mechanický a první digitální počítací stroj (1642).
Gottfried Leibniz zdokonalil Pascalův stroj a vytvořil Stupňovitý počítací stroj, který umožňoval násobení a dělení (1673), a vymyslel univerzální kalkul uvažování (Abeceda lidského myšlení), podle něhož bylo možné mechanicky rozhodovat argumenty.

V 18. století vzniklo velké množství mechanických hraček, včetně slavné mechanické kachny Jacquese de Vaucansona a falešného automatu na hraní šachů Turka (1769) Wolfganga von Kempelena.

Mary Shelleyová vydala příběh Frankenstein aneb moderní Prométheus (1818).

19. a počátek 20. století

George Boole vytvořil binární algebru (Booleovu algebru), která představuje (některé) „zákony myšlení“.
Charles Babbage a Ada Lovelace pracovali na programovatelných mechanických počítacích strojích.

V prvních letech 20. století
Bertrand Russell a Alfred North Whitehead publikovali knihu Principia Mathematica, která znamenala revoluci ve formální logice. Russell, Ludwig Wittgenstein a Rudolf Carnap vedli filozofii k logické analýze poznání.
V Londýně má premiéru hra Karla Čapka R.U.R. (Rossum’s Universal Robots)) (1923). Jedná se o první použití slova „robot“ v angličtině.

Polovina 20. století a počátek umělé inteligence

Warren Sturgis McCulloch a Walter Pitts publikují knihu „A Logical Calculus of the Ideas Immanent in Nervous Activity“ (1943), která položila základy umělých neuronových sítí.
Arturo Rosenblueth, Norbert Wiener a Julian Bigelow ve svém článku z roku 1943 používají termín „kybernetika“. Wienerova populární kniha s tímto názvem vyšla v roce 1948.
Vannevar Bush publikoval knihu As We May Think (The Atlantic Monthly, červenec 1945), která představuje prozíravou vizi budoucnosti, v níž počítače pomáhají lidem v mnoha činnostech.

Doporučujeme:  Ekologie lidského chování

Muž, který je všeobecně považován za otce informatiky,
Alan Turing, publikoval knihu „Computing Machinery and Intelligence“ (1950), která představila Turingův test jako způsob operacionalizace testu inteligentního chování.
Claude Shannon publikoval podrobnou analýzu šachové hry jako vyhledávání (1950).
Isaac Asimov publikoval své Tři zákony robotiky (1950).

1956: John McCarthy přišel s termínem „umělá inteligence“ jako tématem Dartmouthské konference, první konference věnované tomuto tématu.

Demonstrace prvního běžícího programu umělé inteligence, Logic Theorist (LT), který napsali Allen Newell, J. C. Shaw a Herbert Simon (Carnegie Institute of Technology, nyní Carnegie Mellon University).

1957: V roce 1957 Newell, Shaw a Simon předvádějí systém GPS (General Problem Solver).

1952-1962: Arthur Samuel (IBM) napsal první program pro hru dáma (šachy), který dosáhl dostatečných dovedností, aby mohl vyzvat mistra světa. Samuelovy programy strojového učení byly zodpovědné za vysokou výkonnost hráče dámy.

1958: John McCarthy (Massachusetts Institute of Technology nebo MIT) vynalezl programovací jazyk Lisp.
Herb Gelernter a Nathan Rochester (IBM) popsali věrohodnost v geometrii, která využívá sémantický model domény v podobě diagramů „typických“ případů.
Ve Velké Británii se konala Teddingtonská konference o mechanizaci myšlenkových procesů a mezi přednesenými referáty byly například Programs with Common Sense Johna McCarthyho, Pandemonium Olivera Selfridge a Some Methods of Heuristic Programming and Artificial Intelligence Marvina Minského.

Konec 50. a začátek 60. let 20. století: Margaret Mastermanová a její kolegové na univerzitě v Cambridge navrhují sémantické sítě pro strojový překlad.

1961: James Slagle (doktorská disertace, MIT) napsal (v Lispu) první program symbolické integrace SAINT, který řešil úlohy z matematiky na úrovni studentů prvního ročníku.

1962: 1962: založena první společnost vyrábějící průmyslové roboty, Unimation.

1963: Program ANALOGY Thomase Evanse, který napsal v rámci své doktorandské práce na MIT, prokázal, že počítače dokáží řešit stejné analogické úlohy, jaké se řeší v testech IQ.
Edward Feigenbaum a Julian Feldman publikovali Computers and Thought, první sbírku článků o umělé inteligenci.

1964: (technická zpráva č. 1 ze skupiny MIT pro umělou inteligenci, projekt MAC) ukazuje, že počítače dokáží rozumět přirozenému jazyku natolik dobře, aby správně řešily slovní úlohy z algebry. Disertační práce Berta Raphaela z MIT o programu SIR ukazuje sílu logické reprezentace znalostí pro systémy zodpovídající otázky.

1965: Alan Robinson vynalezl mechanický důkazní postup, metodu Resolution, který umožnil efektivní práci programů s formální logikou jako reprezentačním jazykem. Joseph Weizenbaum (MIT) sestrojil ELIZA (program), interaktivní program, který vede dialog v anglickém jazyce na libovolné téma. Byl oblíbenou hračkou v centrech umělé inteligence na ARPANETu, když byla naprogramována verze, která „simulovala“ dialog psychoterapeuta.

1966: Ross Quillian (doktorská disertace, Carnegie Inst. of Technology, nyní CMU) demonstroval sémantické sítě.
První seminář o strojové inteligenci v Edinburghu: první z vlivné každoroční série pořádané Donaldem Michiem a dalšími.
Negativní zpráva o strojovém překladu zabila mnoho práce v oblasti zpracování přirozeného jazyka (NLP) na mnoho let.

1967: Dendral (Edward Feigenbaum, Joshua Lederberg, Bruce Buchanan, Georgia Sutherlandová na Stanfordově univerzitě) demonstrován pro interpretaci hmotnostních spekter organických chemických sloučenin. První úspěšný program založený na znalostech pro vědecké uvažování.
Joel Moses (doktorská práce na MIT) demonstroval sílu symbolického uvažování pro integrační problémy v programu Macsyma. První úspěšný program založený na znalostech v matematice.
Richard Greenblatt (programátor) na MIT vytvořil program MacHack pro hraní šachů založený na znalostech, který byl dostatečně dobrý na to, aby v turnajové hře dosáhl hodnocení třídy C.

1968: Marvin Minsky a Seymour Papert publikují knihu Perceptrony, která ukazuje limity jednoduchých neuronových sítí.

1969: Stanfordský výzkumný institut (SRI): Robot Shakey, který předvedl kombinaci zvířecí lokomoce, vnímání a řešení problémů.
Roger Schank (Stanford) definoval konceptuální závislostní model pro porozumění přirozenému jazyku. Později byl vyvinut (v doktorských disertačních pracích na Yaleově univerzitě) pro použití při porozumění příběhům Robertem Wilenskym a Wendy Lehnertovou a pro použití při porozumění paměti Janet Kolodnerovou. Yorick Wilks (Stanford) vyvinul pohled na sémantickou koherenci jazyka nazvaný Preferenční sémantika, který se vtělil do prvního sémanticky řízeného programu pro strojový překlad a od té doby je základem mnoha doktorských disertací, například Brana Bogurajeva a Davida Cartera v Cambridge.
První mezinárodní společná konference o umělé inteligenci (IJCAI) konaná ve Stanfordu.

1970: Jaime Carbonell (starší) vyvinul SCHOLAR, interaktivní program pro počítačem podporovanou výuku založený na sémantických sítích jako reprezentaci znalostí.
Bill Woods popsal rozšířené přechodové sítě (ATN) jako reprezentaci pro porozumění přirozenému jazyku.
Doktorský program Patricka Winstona ARCH na MIT učil pojmy na příkladech ze světa dětských kostek.

Začátek 70. let: Jane Robinsonová a Don Walker založili v SRI vlivnou skupinu pro zpracování přirozeného jazyka.

1971: V doktorské práci Terryho Winograda (MIT) byla prokázána schopnost počítačů porozumět anglickým větám v omezeném světě dětských bloků, a to spojením jeho programu pro porozumění jazyku SHRDLU s robotickou rukou, která prováděla instrukce zadané v angličtině.

1972: 1972: Alain Colmerauer vyvinul programovací jazyk Prolog.

1974: Doktorská disertační práce Teda Shortliffa o programu MYCIN (Stanford) ukázala sílu systémů založených na pravidlech pro reprezentaci znalostí a odvozování v oblasti lékařské diagnostiky a terapie. Někdy bývá označována za první expertní systém.
Earl Sacerdoti vyvinul jeden z prvních plánovacích programů ABSTRIPS a vyvinul techniky hierarchického plánování.

Doporučujeme:  Ralph W. Gerard

1975: Marvin Minsky publikoval svůj široce čtený a vlivný článek Rámce jako reprezentace znalostí, ve kterém spojil mnoho myšlenek o schématech a sémantických vazbách.
Výukový program Meta-Dendral přinesl nové výsledky v chemii (některá pravidla hmotnostní spektrometrie), první vědecké objevy učiněné počítačem, které byly publikovány v odborném časopise.

Polovina 70. let: Barbara Grosz (SRI) stanovila limity tradičních přístupů k modelování diskurzu pomocí umělé inteligence. Následná práce Groszové, Bonnie Webberové a Candace Sidnerové vyvinula pojem „centrování“, který se používá při určování zaměření diskurzu a anaforických odkazů v NLP.
David Marr a jeho kolegové z MIT popisují „prvotní náčrtek“ a jeho roli ve vizuálním vnímání.

1976: Program AM Douglase Lenata (doktorská práce na Stanfordu) demonstroval model objevování (volně řízené hledání zajímavých domněnek).
Randall Davis ve své doktorské disertační práci na Stanfordu demonstroval sílu metaúrovně uvažování.

1978: Tom Mitchell na Stanfordu vynalezl koncept Version Spaces pro popis prohledávacího prostoru programu pro tvorbu pojmů.
Herbert Simon získává Nobelovu cenu za ekonomii za svou teorii omezené racionality, jeden ze základních kamenů umělé inteligence známý jako „satisficing“.
Program MOLGEN, který na Stanfordu napsali Mark Stefik a Peter Friedland, ukázal, že objektově orientovanou programovou reprezentaci znalostí lze použít k plánování experimentů s klonováním genů.

1979: Bill VanMelle ve své doktorské práci na Stanfordu prokázal obecnost reprezentace znalostí a stylu uvažování v programu EMYCIN, který se stal vzorem pro mnoho komerčních expertních systémů.
Jack Myers a Harry Pople na Pittsburské univerzitě vyvinuli INTERNIST, program pro lékařskou diagnostiku založený na znalostech Dr. Myerse.
Cordell Green, David Barstow, Elaine Kantová a další na Stanfordu předvedli systém CHI pro automatické programování.
Stanfordský vozík, který sestrojil Hans Moravec, se stal prvním počítačem řízeným autonomním vozidlem, když úspěšně projel místností plnou židlí a objel Stanfordskou laboratoř umělé inteligence.
Drew McDermott a Jon Doyle na MIT a John McCarthy na Stanfordu začínají publikovat práce o nemonotonických logikách a formálních aspektech udržování pravdivosti.

1980s: Vyvinuty a uvedeny na trh stroje Lisp. První shelly expertních systémů a komerční aplikace.

1980: Lee Erman, Rick Hayes-Roth, Victor Lesser a Raj Reddy publikovali první popis modelu tabule jako rámce pro systém porozumění řeči HEARSAY-II.
První národní konference Americké asociace pro umělou inteligenci (AAAI) se konala ve Stanfordu.

1981: Danny Hillis navrhne connection machine, masivně paralelní architekturu, která přináší nový výkon do umělé inteligence a do výpočtů obecně. (Později zakládá společnost Thinking Machines, Inc.)

1982: Počítačové systémy páté generace (FGCS), iniciativa japonského ministerstva mezinárodního obchodu a průmyslu zahájená v roce 1982, jejímž cílem bylo vytvořit „počítač páté generace“ (viz historie výpočetního hardwaru), který měl provádět mnoho výpočtů s využitím masivního paralelismu.

1983: John Laird a Paul Rosenbloom ve spolupráci s Allenem Newellem dokončují disertační práci na CMU o programu Soar.
James F. Allen vynalézá intervalový kalkulus, první široce používanou formalizaci časových událostí.

Polovina 80. let: Neuronové sítě se začaly široce používat s algoritmem zpětného šíření (poprvé popsaným Paulem Werbosem v roce 1974).

1985: Na národní konferenci AAAI je předveden program pro autonomní kreslení AARON, který vytvořil Harold Cohen (na základě více než desetileté práce a následných prací, které ukázaly významný vývoj).

1987: Marvin Minsky publikuje knihu The Society of Mind, teoretický popis mysli jako souboru spolupracujících agentů.

1989: Dean Pomerleau na CMU vytváří systém ALVINN (An Autonomous Land Vehicle in a Neural Network), který se rozrostl v systém, jenž řídil automobil z pobřeží na pobřeží pod kontrolou počítače po celou dobu kromě asi 50 z 2850 mil.

1990s: Významné pokroky ve všech oblastech umělé inteligence, významné demonstrace v oblasti strojového učení, inteligentního výukového systému, argumentace na základě případů, plánování s více agenty, rozvrhování, nejistého uvažování, dolování dat, porozumění přirozenému jazyku a překladu, vidění, virtuální reality, her a dalších témat.
Projekt MIT Cog Rodneyho Brookse s řadou spolupracovníků významně pokročí v konstrukci humanoidního robota.

Začátek 90. let: TD-Gammon, program pro vrhcáby, který napsal Gerry Tesauro, dokazuje, že posilování (učení) je dostatečně silné na to, aby vytvořilo program pro hraní her na úrovni mistrovství, a to v konkurenci hráčů světové úrovně.

1997: Šachový program Deep Blue (IBM) poráží ve velmi sledovaném zápase mistra světa v šachu Garryho Kasparova.
První oficiální fotbalový (fotbalový) zápas RoboCup, který zahrnuje stolní zápasy se 40 týmy vzájemně spolupracujících robotů a více než 5 000 diváky.

1998: Tim Berners-Lee publikoval svůj dokument Sémantická mapa webu .

Konec 90. let: Webové crawlery a další programy pro extrakci informací založené na umělé inteligenci se stávají základem pro široké používání World Wide Webu.
Demonstrace inteligentní místnosti a emočních agentů v laboratoři umělé inteligence MIT. Zahájení prací na architektuře Oxygen, která propojuje mobilní a stacionární počítače v adaptivní síti.

2000: Interaktivní roboti („chytré hračky“) se stávají komerčně dostupnými, čímž se naplňuje vize výrobců hraček z 18. století.
Cynthia Breazealová na MIT publikuje svou disertační práci na téma Sociable machines, v níž popisuje robota Kismet (s tváří, která vyjadřuje emoce).
Robot Nomad zkoumá odlehlé oblasti Antarktidy a hledá vzorky meteoritů.

2004: W3C (10. února 2004).