Sztuczna inteligencja

Robot Boston Dynamics, posiadający cechy sztucznej inteligencji, podczas testów armii Wielkiej Brytanii

Sztuczna inteligencja, SI (ang. artificial intelligence, AI) – inteligencja wykazywana przez urządzenia sztuczne (w przeciwieństwie do inteligencji naturalnej). John McCarthy jest uznawany za autora tego terminu, jednak koncepcje i badania sięgają wcześniejszych lat, a wkład w rozwój SI mieli również inni pionierzy, jak Alan Turing czy Marvin Minsky. W potocznym rozumieniu jest ona często używana w kontekście „prawdziwej sztucznej inteligencji”. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne[1][2]. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin „sztuczna inteligencja” wymyślił John McCarthy w 1956 na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”[3]. Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.

Sztuczna inteligencja ma dwa podstawowe znaczenia:

Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów, niepoddających się numerycznej algorytmizacji[4]. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:

Sztuczna inteligencja jest powiązana z obszarami uczenia maszynowego, logiki rozmytej, widzenia komputerowego, obliczeń ewolucyjnych, sieci neuronowych, robotyki i sztucznego życia.

Algorytmy sztucznej inteligencji często określane są mianem „czarnej skrzynki”, z powodu trudności w zrozumieniu ich działania, gdy ilość danych i parametrów jest duża. W przypadku, gdy mamy mały model, zrozumienie zasady działania nie sprawia problemu. Jednak gdy ilość danych i paremetrów się zwiększa, jest to praktycznie niemożliwe, aby zrozumieć, w jaki sposób te algorytmy podejmują decyzje[5]. Były jednak próby opracowania matemaycznej teorii, jak naprawdę działają te algorytmy (a dokładnie sieci neuronowe), z uwzględnieniem modelu GPT[6].


From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Tubidy