Edukira joan

Adimen artifizial

Artikulu hau Wikipedia guztiek izan beharreko artikuluen zerrendaren parte da
Artikulu hau "Kalitatezko 2.000 artikulu 12-16 urteko ikasleentzat" proiektuaren parte da
Bideo honek Ikusgela proiektuko bideo bat barneratzen du
Wikipedia, Entziklopedia askea

Bideo hau Ikusgela proiektuaren parte da.
Bideo hau Ikusgela proiektuaren parte da. Bideoak dituzten artikulu guztiak ikus ditzakezu hemen klik eginez gero.
Adimen artifiziala ulertzeko bideoa.
IBM enpresako Deep Blue. Argazkikoa bezalako ordenagailua oso ospetsu bihurtu zen munduko xake txapeldunari, Kasparovi, irabazi zionean. Historian lehen makina izan zen munduko txapeldun bati irabazten. Argazkia: Computer History Museum
Asimo robot humanoidea

Adimen artifiziala (AA; IA, inteligentzia artifiziala[1], edo (Ingelesez) AI ere) makinek frogatutako adimena da (informazioaren pertzepzioa, sintesia eta inferentzia), gizakiak ez diren animaliek edo gizakiek erakutsitako adimenari kontrajarria. Mota horretako lanen adibideak dira ahotsa ezagutzea, ordenagailuen ikusmena, hizkuntzen arteko itzulpena (naturalak) eta beste datu-konbinazio batzuk.

AAren aplikazioak dira: web-bilaketarako motor aurreratuak (adibidez, Google Search), gomendio-sistemak (YouTubek, Amazonek eta Netflixek erabiltzen dituztenak), giza hizketaren ulermena (Siri eta Alexa, esaterako), ibilgailu autonomoak (adibidez, Waymo), tresna sortzaile edo generatiboak (ChatGPT eta AA artea), erabaki automatizatuak hartzea eta maila goreneko lehia joko-sistema estrategikoetan (xakea eta Go).

Makinak gero eta gaiago bihurtzen diren heinean, "inteligentzia" eskatzen duten zereginak AAren definiziotik ezabatzen dira askotan, AA efektua bezala ezagutzen den fenomenoa[2]. Adibidez, karaktereen ezagupen optikoa AA gisa hartzen denetik kanpo utzi ohi da, ohiko teknologia bihurtu baita[3].

Adimen artifiziala diziplina akademiko gisa sortu zen 1956an, eta, ordutik, hainbat baikortasun-bolada izan ditu[4][5]; ondoren, etsipena eta finantziazio-galera ("AAren negua" esaten zaiona), eta, ondoren, ikuspegi berriak, arrakasta eta finantzaketa berritua. AAko ikerketak ikuspegi desberdin asko probatu eta baztertu ditu, hala nola garunaren simulazioa, gizakiek problemen ebazpenaren modelatzea, logika formala, ezagutzaren datu-base handiak eta animalien portaeraren imitazioa. XXI. mendeko lehen hamarkadetan, ikaskuntza automatiko matematiko eta estatistiko handia nagusi izan da eremuan, eta teknika hori oso arrakastatsua izan dela erakutsi du industria eta mundu akademiko osoan erronkazko arazo asko konpontzen lagunduz[6].

AAko ikerketaren azpieremuak helburu zehatzetan eta tresna espezifikoen erabileran oinarritzen dira. AAko ikerketaren helburu tradizionalen artean daude arrazoitzea, ezagutza irudikatzea, planifikatzea, ikastea, hizkuntza naturala prozesatzea, pertzepzioa eta objektuak mugitzeko eta manipulatzeko gaitasuna. Adimen orokorra (arazo arbitrario bat konpontzeko gaitasuna) da eremu horren epe luzerako helburuetako bat. Arazo horiek konpontzeko, AAko ikertzaileek problemak ebazteko teknika ugari egokitu, eta integratu dituzte, hala nola bilaketa eta optimizazio matematikoa, logika formala, sare neuronal artifizialak eta estatistikan, probabilitatean eta ekonomian oinarritutako metodoak. Informatikan, psikologian, hizkuntzalaritzan, filosofian eta beste arlo askotan ere oinarritzen da AA.

Giza adimena "hain zehatz deskribatu daiteke, ezen simulatzen duen makina bat egin daitekeen" ustean sortu zen eremua. Honek giza adimenaren antzekoa gaitasuna zuten izaki artifizialak sortzearen eta ondorio etikoen gaineko argudio filosofikoak sorrarazi zituen; gai hauek antzinatik aztertu zituzten mitoak, fikzioak eta filosofiak. Ordutik, informatikariek eta filosofoek iradoki dute AA arrisku existentzial bihur daitekeela gizateriarentzat, haien gaitasun arrazionalak helburu onuragarrietara bideratzen ez badira. Adimen artifiziala ere kritikatu izan da AAren benetako gaitasun teknologikoak puzteagatik.

Terminoaren definizioari buruz

[aldatu | aldatu iturburu kodea]

Lagunartean, adimen artifiziala terminoa makina batek gizakiek beste gizakien adimenekin lotzen dituzten funtzio «kognitiboak» imitatzen dituenean aplikatzen da, adibidez: «hautematean», «arrazoitzean», «ikastean» eta «arazoak konpontzean»[7]. Andreas Kaplanek eta Michael Haenleinek honela definitzen dute adimen artifiziala: «Sistema batek kanpoko datuak behar bezala interpretatzeko duen gaitasuna, datu horietatik ikasteko eta ezagutza horiek egokitzapen malguaren bidez zeregin eta xede zehatzak lortzeko erabiltzeko duen gaitasuna»[8]. Gorka Azkunek atazen araberako definizio bat ematen du: «Ezin dugunez besterik gabe esan makina batek adimena daukan edo ez, egiten duguna da makina horri ataza batzuk jarri, gure ustez izaki adimentsu batek bakarrik ebatzi litzakeenak, eta ikusten dugu makinak zenbateraino ondo egiten dituen ataza horiek».[9] Makinak gero eta gai bihurtzen diren heinean, noizbait giza- eta adimen-beharra zegoela pentsatu izan den teknologia hori ezabatu egiten da definiziotik.

Adibidez, karaktereen ezagupen optikoa ez da jada «adimen artifizialaren» adibidetzat hartzen, teknologia arrunt bihurtu baita[10]. Oraindik, adimen artifizial gisa sailkatuta dauden aurrerapen teknologikoak gidatzeko sistema autonomoak edo xakean edo Go jokatzeko gai direnak dira[8].

Adimen artifiziala arazoak konpontzeko modu berri bat da, eta horien barruan sartzen dira sistema adituak, roboten maneiua eta kontrola eta prozesadoreak. Sistema horietan, ezagutza integratzen saiatzen da, beste era batera esanda, bere programa propioa idazteko gai den sistema adimendun bat. Arlo jakin bati buruzko ezagutza biltegiratzeko eta erabiltzeko gai den programazio-egitura gisa definitutako sistema aditu bat, ikasteko gaitasuna dakarrena[11]. Era berean, makinek algoritmoak erabiltzeko, datuetatik ikasteko eta erabakiak hartzerakoan ikasitakoa gizaki batek egingo lukeen moduan erabiltzeko gaitasuntzat har daiteke adimen artifiziala; gainera, adimen artifizialaren ikuspegi nagusietako bat ikaskuntza automatikoa da, eta, beraz, ordenagailuek edo makinek ikasteko gaitasuna dute horretarako programatuta egon gabe[12].

Takeiasen arabera (2007), AA zientzia konputazionalen adar bat da, gizakien berezko jarduerak egiteko gai diren zenbaketa-ereduak aztertzeaz arduratzen dena, haien bi ezaugarri nagusitan oinarrituta: arrazoiketa eta jokabidea[13].

1956an, John McCarthyk «adimen artifiziala» esamoldea sortu zuen, eta honela definitu zuen: «makina adimendunak egiteko zientzia eta asmamena, batez ere konputazio adimenduneko programak»[14].

Era berean, hainbat pertzepzio eta ekintza mota daude, sentsore fisiko eta sentsore mekanikoen bidez lortu eta ekoitzi daitezkeenak, hurrenez hurren, makinetan, pultsu elektriko edo optikoen bidez konputagailuetan, bai eta software baten eta software-ingurunearen bit-sarreren eta -irteeren bidez ere.

Hona hemen adibide batzuk: sistemen kontrola, plangintza automatikoa, diagnostikoei eta kontsumitzaileen kontsultei erantzuteko gaitasuna, idazketaren ezagutza, hizketaren ezagutza eta patroien ezagutza. Gaur egun, AAko sistemak errutinaren parte dira ekonomian, medikuntzan, ingeniaritzan, garraioan, komunikazioetan eta milizian, eta programa informatiko, konputagailuko xake bezalako estrategia-joko eta beste bideojoko askotan erabili izan da.

Sakontzeko, irakurri: «Adimen artifizialaren historia»

Adimen artifizialaren jatorria psikologian bertan datza, zehazki giza pentsamenduaren modelo bat sortzeko nahian. Adimen artifizialaren kontzeptua aspaldidanik gizakiak amestu izan duen ahalmen batekin erlazionaturik dago, materia bizigabea bizteko ahalmenarekin. Pragako Golemaren kondairan eta modernoagoa den Frankenstein doktorearen kontakizunean nabari liteke antzekorik. Hala ere, dakigunez Samuel Butler, Zeelanda Berrian bizitako idazle Britaniarra izan zen gaur egun darabilgun kontzeptuaren lehen zantzuak adierazi zituena, 1863an Darwin makinen artean izeneko idazki batean kontzientzia mekanikoa aipatu zuenean.

Hala dirudien arren adimen artifiziala ez da soilik robotikarekin zerikusia duen zientzia; adimen kolektiboaren azterketa izan da adimen artifizialaren sustatzaileetako bat soziologiak, biologiak, zientzia politikoek, marketinak... aspaldidanik aurreikusi nahi izan dituzte gizakien joerak eta erabakiak horretarako adimen artifiziala modelo bezala erabili litekeelarik.

Lehen ekimenak

[aldatu | aldatu iturburu kodea]

1940ko hamarkadan hasi ziren adimen artifiziala informatikaren bidez lortzeko lehen ekimenak, ildo horretatik agertu ziren ere lehen idazki eta artikuluak besteak beste: 1943. urtean Warren McCulloch eta Walter Pittsek argitaratutako Logika kalkuluak, ideia Immanenteak eta Nerbioen Aktibitateak edota 1950. urtean azaldu ziren Alan Turingen Makinaria konputagailua eta inteligentzia eta J.C.R. Licklidereen Izaki-konputagailu sinbiosia.

Honen aurretik, 1948. urtean, John von Neumann eta E.T. Jaynesek jada honakoa esana zioten makinek pentsatzeko ahalmena sekula lortuko ez zutela esan zuen ikasle bati "Makinek egin ezin dituzten gauzak badirelakoan jarraitzen duzu. Argi eta zehatz esango bazenit zer den egin ezin dezaketena orduan diozun hori egiteko ahalmena duen makina bat eraikiko dut!".

1969an McCarthyk eta Hayesek frame arazoei buruzko aurkikuntza bat egin zuten eta beraien idazlanetan honako hau jarri zuten, "Filosofia arazo batzuk Adimen Artifizialetik eratorriak dira".

Inteligentzia artifizialaren aurkikuntzak

[aldatu | aldatu iturburu kodea]

1950. urtean Allen Newell eta Herbert Simonek Carnegie Mellon Unibertsitateko laborategian adimen artifiziala lortzeko lehen saiakerak burutu zituzten. Hauen ondoren 1959. urtean McCarthy eta Marvin Minskyk ere MITko Adimen Artifizial Laborategian zenbait lan egin zuten.

Historikoki, bi ikerketa-bide daude adimen artifizialaren arloan - "neats"ena eta "scruffies"ena. "Neat", klasikoa edo sinbolikoa dugu AAren arloan, orokorrean, manipulazio sinbolikoz inguraturik dago eta kontzeptu abstraktuez, eta hau da gehien erabiltzen den metodologia adituen esanetan sistemen arloan. Paralelikoki "scruffy", edo "konexionista", gehiago hurbiltzen da, neurona-sare artifizialera. Hauek dira adibiderik onenak, sistema eta antolakuntza berriak eraikiz adimenera "inguratzen" saiatzen direnak eta prozesu automatiko eta sistematiko asko hobetuz arazo hau amaitzen dute dena osatuz. Biak nahikotxo hurbiltzen dira IAren historiara. 1960 eta 1970. urtean "scruffy" hurbildu zen "background"era, baina interesa gauzatu zen 1980. urtean "neat"en mugak argi geratu zirenean. Bestalde, gaur egun biak erabiltzen dira bata bestea osatuz hobeto funtzionatzen baitute.

Adimen artifiziala eta informatika

[aldatu | aldatu iturburu kodea]

Adimen artifizialaren hasiera ordenagailuenarekin batera izan zen, 1956. urtean John McCarthyk adimen artifizialaren terminoa sortu zuen, eta ordutik ondorengo etapak ezberdintzen dira:

  • Hasierako azterketa zientifikoaren etapa ( 1956-1970 ). Bilaketa heuristikoaren metodoak eta dedukzio-automatikoarenak ere agertzen dira. Lehenengoek problemak grafikoez adierazi eta ebazteko teknika heuristikoak erabiltzen dituzte, eta bigarrenek, logikan oinarritutakoak. Etapa honetan agertu zen LISP hizkuntza adimen artifizialerako egokituta, eta baita ere sare semantikoak ezagupena adierazteko.
  • Prototipoen etapa ( 1970-1980 ): Aurreko etapako fundamentu teorikoek prototipo batzuen agerraldia eragintzen dute: STRIPS proiektua roboten planifikazioan, gizakien hizkuntza ulertzeko MARCO ezagupenen adierazpen-paradigma, lehenengo sistema adituak ( MYCIN, gaixotasunen diagnostikorako...) eta 1972 urtean programazio logikoaren planteamendua, PROLOG hizkuntza sortarazi zuena.
  • Difusio-etapa. Oraingoa. Ezagupen-ingeniariaren sakabanatzea ematen da. Adimen artifizialera dedikaturiko enpresak agertzen dira, aplikazio honetarako erremintak merkatura zabaltzen. Aurrerapen handiak ematen dira sistema adituetan eta datu-baseentzako hizkuntza naturalean, eta ez hain handiak ikusmen artifizial eta robotikan.

Adimena simulatzeko (edo sortzeko) arazo orokorra azpi-arazoetan banatu da. Horiek ikertzaileek sistema adimendun batek bistaratzea espero duten ezaugarri edo gaitasun partikularrak dira. Jarraian deskribatutako ezaugarriek arreta gehien jaso dutenak dira, eta AA ikerketaren esparrua hartzen dute[a]

Arrazoiketa, arazoak konpontzea

[aldatu | aldatu iturburu kodea]

Puzzleak ebazten dituztenean edo dedukzio logikoak egiten dituztenean gizakiek erabiltzen duten pausoz pausoko arrazonamendua imitatzen zuten algoritmoak garatu zituzten lehen ikertzaileek[15] 1980ko eta 1990eko hamarkadaren amaieran, ziurgabetasuna edo informazio osatugabea lantzeko metodoak garatu ziren, probabilitatea eta ekonomia kontzeptuak erabiliz[16].

Algoritmo horietako asko ez dira nahikoak arrazoimen-arazo handiak ebazteko leherketa konbinatzailea jasaten dutelako: esponentzialki moteltzen zihoazen arazoak handitu ahala[17]. Gizakiek ere oso gutxitan erabiltzen dute AAren ikerketa goiztiarrek modelatu dezaketen urratsez urratseko dedukzioa. Arazo gehienak judizio azkarrak eta intuitiboak erabiliz ebazten dituzte[18]. Arrazoiketa zehatza eta eraginkorra konpondu gabeko arazoa da.

Ezagutzaren irudikapena

[aldatu | aldatu iturburu kodea]
Ontologiak ezagutza domeinu bateko kontzeptu multzo gisa eta kontzeptu horien arteko erlazioak adierazten du.

Ezagutzaren irudikapenak eta ezagutzaren ingeniaritzak[19] AA programek galderei modu adimentsuan erantzutea eta mundu errealeko gertakariei buruzko dedukzioak egitea ahalbidetzen dute. Ezagutza formalaren irudikapenak edukietan oinarritutako indexazio eta berreskurapenean erabiltzen dira[20] eszenaren interpretazioan[21], erabaki klinikoen laguntzan[22], ezagutzaren aurkikuntzan (datu-base handietako inferentzia interesgarriak eta ekingarriak ateratzea)[23] eta beste arlo batzuetan[24].

Ezagutza-oinarria programa batek erabil dezakeen forma batean irudikatzen den ezagutza-multzo bat da. Ontologia ezagutza-eremuak erabiltzen dituen objektu, erlazio, kontzeptu eta propietateen multzoa da[25]. Ezagutza oinarriek honako gauzak irudikatu behar dituzte: objektuak, propietateak, kategoriak eta objektuen arteko erlazioak[26]; egoerak, gertaerak, aldarteak eta denbora[27]; kausak eta ondorioak[28]; ezagutzari buruzko ezagutza (besteek dakigunari buruz dakiguna)[29]; arrazoibide lehenetsia (gizakiak bere gain hartzen dituen gauzak egiazkoak dira bestela esan arte, eta egia izaten jarraituko dute beste gertakari batzuk aldatzen ari direnean ere)[30], eta beste hainbat alderdi eta jakintza-eremuak.

Ezagutza irudikapenaren arazo zailenen artean, honako hauek dira: zentzu komunaren ezagutzaren zabalera (gertakari atomikoen ezagutza duen batezbesteko pertsona multzoa izugarria da)[31] eta zentzu arruntaren ezagutza gehienen forma azpisinbolikoa (jendeak dakienaren zati handi bat ez da hitzez adieraz ditzakeen gertakari edo adierazpen gisa adierazten), eta zentzu arruntaren ezagutza gehienen forma azpisinbolikoa (jendeak dakienaren zati handi bat ez da ahoz adieraz litezkeen "gertakari" edo "adierazpen" gisa irudikatuta)[18].

Ezagutza eskuratzea AA aplikazioetarako, ezagutza lortzea da arazorik larriena[b]. AA modernoak ezagutzak Interneten biltzen ditu (Wikipedia barne). Ezagutza bera informazioa argitaratu zuten boluntarioek eta profesionalek bildu zuten (bere lana AA enpresei ematea adostuta edo ez)[32]. Iturri kolektibo teknika horrek ez du bermatzen ezagutza zuzena edo fidagarria denik. Hizkuntz eredu handien ezagutza (adibidez, Chat-GPT) ez da oso fidagarria, desinformazioa eta faltsukeriak ematen baititu (haluzinazio hitzez ezagutua). AA aplikazio moderno hauetarako, ezagutza zehatza ematea konpondu gabeko arazoa da.

Plangintza eta erabakiak hartzea

[aldatu | aldatu iturburu kodea]

Agentea munduan ekintzak hautematen eta egiten dituen edozer da. Agente arrazionalak helburuak edo lehentasunak ditu, eta horiek gauzatzeko ekintzak egiten ditu[c][33]. Plangintza automatizatuan, agenteak helburu zehatz bat du[34]. Erabakiak hartzeko modu automatizatuan, agenteak lehentasunak ditu: egon nahiko lukeen egoera batzuk daude, eta saihestu nahiko lituzkeen egoera batzuk daude. Erabakiak hartzen duen agenteak egoera bakoitzari (erabilgarritasuna deitzen zaio) zenbaki bat esleitzen dio agenteak zenbat nahiago duen neurtzen duena. Ekintza posible bakoitzerako, «espero den erabilgarritasuna» kalkula dezake: ekintzaren emaitza posible guztien erabilgarritasuna, emaitza gertatzeko probabilitatearen arabera haztatuta. Ondoren, espero den erabilgarritasun handiena duen ekintza aukera dezake[35].

Plangintza klasikoan, agenteak badaki zehatz-mehatz zein izango den edozein ekintzaren eragina[36]. Mundu errealeko arazo gehienetan, ordea, litekeena da agentea ziur ez izatea zein egoeratan dagoen (ezezaguna edo behatu ezina da) eta litekeena da ziur ez jakitea zer gertatuko den ekintza posible bakoitzaren ondoren (ez da determinista). Ekintza bat aukeratu behar du probabilitatezko asmakizun bat eginez, eta, ondoren, egoera berriro ebaluatu, ekintzak funtzionatu duen ikusteko[37]. Arazo batzuetan, agentearen hobespenak zalantzazkoak izan daitezke, batez ere tartean dauden beste agente edo gizaki batzuk badaude. Horiek ikas daitezke (adibidez, alderantzizko errefortzuaren ikaskuntzarekin) edo agenteak informazioa bilatu dezake bere lehentasunak hobetzeko[38]. Informazio-balioaren teoria esplorazio- edo esperimentazio-ekintzen balioa neurtzeko erabil daiteke[39]. Etorkizuneko ekintzen eta egoeren espazioa ezinezkoa da normalean, beraz, eragileek ekintzak egin, eta egoerak ebaluatu behar dituzte azken emaitza zein izango den ziur egon gabe.

Markov-en erabaki-prozesu batek ekintza jakin batek egoera modu jakin batean aldatzeko probabilitatea deskribatzen duen trantsizio-eredu bat du, eta egoera bakoitzaren erabilgarritasuna eta ekintza bakoitzaren kostua ematen dituen sari-funtzioa. Politika batek erabaki bat egoera posible bakoitzarekin lotzen du. Politika kalkula liteke (adibidez, iterazio bidez); heuristikoa izan daiteke, edo ikasi daiteke[40].

Jokoen teoriak elkarreraginean dauden hainbat agenteren jokaera arrazionala deskribatzen du, eta beste agente batzuk inplikatzen dituzten erabakiak hartzen dituzten AA programetan erabiltzen da[41].

Sakontzeko, irakurri: «Ikasketa automatikoa»

Ikasketa automatikoa zeregin jakin batean beren errendimendua automatikoki hobetu dezaketen programen azterketa da[42]. AAren parte izan da hasieratik[d].

Ikaskuntza automatikoko hainbat mota daude. Gainbegiratu gabeko ikaskuntzak datu-jario bat aztertzen du; ereduak aurkitzen ditu, eta iragarpenak egiten ditu beste inongo orientaziorik gabe[45]. Gainbegiratutako ikaskuntzak gizaki batek sarrerako datuak etiketatu behar ditu lehenik, eta bi mota nagusitan daude: sailkapena (non programak sarrera zein kategoriari dagokion iragartzen ikasi behar duen) eta erregresioa (non programak zenbakizko sarreran oinarritutako funtzio numeriko bat ondorioztatu behar duen)[46]. Indartze-ikaskuntzan, agentea erantzun onengatik saritzen da, eta txarengatik zigortzen da. Agenteak onak gisa sailkatutako erantzunak aukeratzen ikasten du[47]. Transferentzia ikaskuntza arazo batetik lortutako ezagutza arazo berri bati aplikatzen zaionean da[48]. Ikaskuntza sakonak neurona-sare artifizialak erabiltzen ditu ikaskuntza mota guztietarako.

Ikaskuntza konputazionalaren teoriak ikasleak konplexutasun konputazionalaren arabera ebalua ditzake, laginaren konplexutasunaren arabera (zenbat datu behar diren) edo beste optimizazio nozio batzuen arabera[49].

Bideo hau Ikusgela proiektuaren parte da.
Bideo hau Ikusgela proiektuaren parte da. Bideoak dituzten artikulu guztiak ikus ditzakezu hemen klik eginez gero.
Hizkuntza prozesamendu naturala: komunikazioaren iraultza?

Hizkuntza naturalaren prozesamendua

[aldatu | aldatu iturburu kodea]
Sakontzeko, irakurri: «Lengoaia naturalen prozesamendua»

Arlo honetan sartzen dira:

  • Hizkuntza idatzia ezagutzen duten sistemak, adibidez datu-baseak kontsultatzeko
  • Ahozko hizkuntza jaso eta idazten duten sistemak
  • Ahozko hizkuntzen bat-bateko itzulpen sistemak. Hauek oraindik ez daude hain aurreratuta.

Pertsonek euren artean hitz egiterakoan, mezuaz gain beste hainbat ezagutza komun dituzte: ingurukoena. Lengoaia naturalaren prozesamenduak (NLP)[50] programak ingelesa moduko giza hizkuntzetan irakurtzeko, idazteko eta komunikatzeko aukera ematen du. Arazo zehatzak honako hauek dira: hizketa-ezagutzea, hizketa-sintesia, itzulpen automatikoa, informazioa ateratzea, informazioa berreskuratzea eta galderei erantzutea[51].

Hasierako lanek, Noam Chomskyren gramatika generatibo eta sare semantikoetan oinarrituta, zailtasunak izan zituzten hitz-zentzua desanbiguatzeko[e] mikro-mundu izeneko domeinu txikietara mugatu ezean (zentzu komunaren ezagutzaren arazoa dela eta[31]).

NLPrako ikaskuntza sakoneko teknika modernoak hitzen barneratzea (hitz bat bestearen ondoan zenbat maiz agertzen den)[52], transformatzaileak (testuan ereduak aurkitzen dituena)[53] eta beste batzuk dira[54]. 2019an, aurrez prestatutako eraldatzaile sortzaileak (edo GPT ingelesez) hizkuntza-ereduak testu koherentea sortzen hasi ziren[55][56], eta 2023rako eredu horiek giza-mailako puntuazioak lortu ahal izan zituzten barraren azterketan, SAT, GRE, eta mundu errealeko beste hainbat aplikaziotan[57].

Makinen pertzepzioa sentsoreen (adibidez, kamerak, mikrofonoak, hari gabeko seinaleak, lidar aktiboa, sonarra, radarra eta ukimenezko sentsoreak) munduaren alderdiak ondorioztatzeko gaitasuna da. Ordenagailu bidezko ikusmena ikusizko sarrera aztertzeko gaitasuna da[58].

Ikusmen artifiziala

[aldatu | aldatu iturburu kodea]

Ikusmen artifizialaren helburua formak eta objektuak identifikatzeko gai diren sistema batzuk garatzea da. Bi dimentsioetako arloan arrakasta batzuk lortu izan dira, baina zailtasun handiagoak daude 3D kasuan. Bere aplikazioa batez ere robotikan ematen da.

Robotak osatzen dituzten sistemen ikasketa alde batetik, eta beste alde batetik, euren adimenarena. Robot bat bere inguruko egoera identifikatu eta uneko egoera beste egoera objektibo batera pasatzeko gai den sistema bat da, horretarako zeregin batzuk planifikatzen. Oso konplexuak dira bai identifikazioa bai zereginen planifikazioa egoeraz aldatzeko.

Sistema adituak

[aldatu | aldatu iturburu kodea]

Sistema adituek normalean gizaki adituek ebazten dituen problemak ebazten dituzte, etekin antzekoaz. Horretarako ezagupen basea handia behar dute eremuari buruz, mekanismo bat ezagupen horiek aplikatzeko eta beste bat erabiltzaileari azaltzeko zer egin den. Jakintza berria sistemara gehitzeko kapaz izan behar dute, eta baita ere lan egiteko nahiz eta jakintza osoa ez izan.

Zaila da aurreikustea adimen artifizialak zelako ekarpenak ekarriko dituen datozen urteotan gizakion ikaskuntza bideetan[59][60][61].

  1. Ezaugarri adimentsuen zerrenda hau AA testu-liburu nagusiek landutako gaietan oinarritzen da, besteak beste: (Russell & Norvig 2021), (Luger & Stubblefield 2004), (Poole, Mackworth & Goebel 1998) and (Nilsson 1998)
  2. Sistema adituek ezagutza atzemateko eraginkorrak ez zirela frogatu zuten arrazoien artean dago
  3. Agente arrazionala ekonomian, filosofian eta adimen artifizial teorikoan erabiltzen den termino orokorra da. Bere jokabidea helburuak betetzera bideratzen duen edozeri erreferentzia egin diezaioke, hala nola pertsona bati, animaliei, korporazio bati, nazio bati edo, AAren kasuan, programa informatiko bati.
  4. Alan Turing discussed the centrality of learning as early as 1950, in his classic paper "Computing Machinery and Intelligence".[43] 1956an, Dartmouth AA jatorrizko udako konferentzian, Ray Solomonoff-ek gainbegiratu gabeko ikaskuntza automatiko probabilistikoari buruzko txosten bat idatzi zuen: An Inductive Inference Machine.[44]
  5. See Txantiloi:Section link

Erreferentziak

[aldatu | aldatu iturburu kodea]
  1. 31eskutik. (2023-12-13). «Sigla lexikalizatuak» 31 eskutik (Noiz kontsultatua: 2023-12-15).
  2. McCorduck 2004, 204 orr. .
  3. Schank 1991, 38 orr. .
  4. Crevier 1993, 109 orr. .
  5. 1980ko hamarkadaren hasieran garatu ziren lehenengo proiektuak: Fifth Generation Project (Japonia), Alvey (Erresuma Batua), Microelectronics and Computer Technology Corporation (AEB), Strategic Computing Initiative (AEB):
  6. Clark 2015b.
  7. , Russell & Norvig 2009, 2 orr. .
  8. a b (Ingelesez) «Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence - ScienceDirect» web.archive.org 2018-11-21 (Noiz kontsultatua: 2023-02-05).
  9. Arruabarrena, Isabel Jaurena-Mikel P. Ansa- Jone. «FIKZIOTIK ERREALITATERA» Berria (Noiz kontsultatua: 2023-04-16).
  10. Schank, Roger C. (1991). «Where's the AI» (PDF). AI Magazine 12 (4): 38
  11. (Gaztelaniaz) Ingelek. (1986). Biblioteca Basica Informatica 28 Inteligencia Artificial. (Noiz kontsultatua: 2023-02-05).
  12. (Gaztelaniaz)Rouhiainen, Lasse (2018). Inteligencia Artificial 101 cosas que debes saber hoy sobre nuestro futuro. Alienta. 2021ean begiratua
  13. (Gaztelaniaz)López Takeyas, Bruno. «Introducción a la Inteligencia Artificial»
  14. (Ingelesez) «Basic Questions» www-formal.stanford.edu (Noiz kontsultatua: 2023-02-05).
  15. Arazoak ebaztea, puzzleak ebaztea, jolasa eta dedukzioa:
  16. Arrazoiketa ziurgabea:
  17. Trataezintasuna eta eraginkortasuna eta leherketa konbinatorioa:
  18. a b Prebalentziaren arrazonamendu eta ezagutza azpisinbolikoaren froga psikologikoak:
  19. Ezagutzaren irudikapena eta ezagutzaren ingeniaritza:
  20. Smoliar & Zhang 1994.
  21. Neumann & Möller 2008.
  22. Kuperman, Reichley & Bailey 2006.
  23. McGarry 2005.
  24. Bertini, Del Bimbo & Torniai 2006.
  25. Russell & Norvig 2021, 272 orr. .
  26. Kategoriak eta erlazioak irudikatzea: Semantika sareak, Deskribapen logika, herentzia (markoa eta gidoia barne):
  27. Gertaerak eta denbora irudikatzea:Egoeraren kalkuluak, gertaeren kalkuluak, kalkulu arinak (marko arazoak konpontzea barne):
  28. Kalkulu kausala:
  29. Ezagutzaren inguruko ezagutzak irudikatzea: Sinesmen-kalkulua, logika modalak:
  30. Arrazoibide lehenetsia, marko arazoa, logika lehenetsia, logika ez monotonikoa, zirkunskripzioa, Mundu itxiaren suposizioa, arrazoibide abduktiboa: (Poolek abdukzioa arrazoimendu lehenetsiaren pean jartzen du. Lugerrek, berriz, hori arrazoiketa ziurgabearen pean jartzen du).
  31. a b Zentzu komunaren ezagutza zabala:
  32. Gertner 2023.
  33. Russell & Norvig 2021, 528 orr. .
  34. Plangintza eta programazio automatizatua:
  35. Erabaki automatizatua, Erabakien teoria:
  36. Plangintza klasikoa:
  37. Sentsorerik gabe edo konforme plangintza, planifikazio kontingentea, birplanifikazioa:
  38. Hobespen ziurgabeak: Indartze alderantzizko ikaskuntza:
  39. Informazioaren balioaren teoria:
  40. Markov-en erabaki prozesua:
  41. Jokoen teoria eta eragile anitzeko erabakien teoria:
  42. Ikasketa automatikoa:
  43. Turing 1950.
  44. Solomonoff 1956.
  45. Gainbegiratu gabeko ikaskuntza:
  46. Supervised learning:
  47. Indartze ikaskuntza:
  48. Transferentzia ikaskuntza:
  49. Ikaskuntza konputazionalaren teoria:
  50. Lengoaia naturalaren prozesamendua (NLP):
  51. Hizkuntza naturalaren prozesamenduaren azpiarazoak (NLP):
  52. Russell & Norvig 2021, 856–858 orr. .
  53. Russell & Norvig 2021, 868–871 orr. .
  54. [[Hizkuntza naturalaren prozesamenduari buruzko ikuspegi estatistiko eta lengoaiaren prozesamendu modernoak|NLP]]:
  55. Vincent 2019.
  56. Russell & Norvig 2021, 875–878 orr. .
  57. Bushwick 2023.
  58. Ordenagailu bidezko ikusmena:
  59. (Ingelesez) «Spotlight: Let's ask more of AI» The Internet Health Report 2019 2019-03-13 (Noiz kontsultatua: 2019-05-04).
  60. (Ingelesez) «Anatomy of an AI System» Anatomy of an AI System (Noiz kontsultatua: 2019-05-04).
  61. (Ingelesez) Johnson, Eric. (2019-04-08). «How will AI change your life? AI Now Institute founders Kate Crawford and Meredith Whittaker explain.» Vox podcasts (Noiz kontsultatua: 2019-05-04).

AA testu-liburuak

[aldatu | aldatu iturburu kodea]

2023an gehien erabiltzen diren bi testuliburuak (Ikus Programa Irekia) dira:

  • (Ingelesez) Russell, Stuart J; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach, 4. ed.. Pearson, Hoboken ISBN 978-0134610993.. LCCN 20190474
  • (Ingelesez) Rich, Elaine; Knight, Kevin; Nair, Shivashankar B. (2010). Artificial Intelligence. (3.. argitaraldia) Tata McGraw Hill India (New Delhi) ISBN 978-0070087705..

Hauek izan ziren 2008an gehien erabili ziren lau AA testu-liburuak:

Ondorengo edizioak. Poole, David; Mackworth, Alan. (2017). Artificial Intelligence: Foundations of Computational Agents. Cambridge University Press ISBN 978-1-107-19539-4..

AAren historia

[aldatu | aldatu iturburu kodea]

Beste iturri batzuk

[aldatu | aldatu iturburu kodea]

Bibliografia osagarria

[aldatu | aldatu iturburu kodea]
  • Autor, David H., "Why Are There Still So Many Jobs? The History and Future of lanaplace Automation" (2015) 29(3) egunkaria of Economic Perspectives 3.
  • Boden, Margaret, Mind As Machine, Oxford University Press, 2006.
  • Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–98. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learning algorithms are, at their core, dead simple stupid. They lana, but they lana by brute force." (p. 198.)
  • Domingos, Pedro, "Our Digital Doubles: AI will serve our species, not control it", Scientific American, vol. 319, no. 3 (September 2018), pp. 88–93.
  • Gertner, Jon. (2023) "Wikipedia's Moment of Truth: Can the online encyclopedia help teach A.I. chatbots to get their facts right — without destroying itself in the process?" New York Times Magazine (July 18, 2023) online

Ikus, gainera

[aldatu | aldatu iturburu kodea]

Kanpo estekak

[aldatu | aldatu iturburu kodea]

Inteligentzia artifizialarekin lotutako erakundeak

[aldatu | aldatu iturburu kodea]