Sztucznej inteligencji ( AI ) to „zbiór teorii i technik stosowanych w celu uzyskania maszyny umożliwiające symulowanie ludzką inteligencję” .
Obejmuje zatem zestaw koncepcji i technologii, więcej niż autonomicznie ukonstytuowaną dyscyplinę. Władze takie jak CNIL , zauważając brak precyzji w definicji sztucznej inteligencji, przedstawiły ją jako „wielki mit naszych czasów” .
Często zaliczany do grupy nauk kognitywnych , wykorzystuje neurobiologię obliczeniową (w szczególności sieci neuronowe ), logikę matematyczną (część matematyki i filozofii) oraz informatykę . Wykorzystuje metody rozwiązywania problemów o dużej złożoności logicznej lub algorytmicznej . Co więcej, obejmuje w języku potocznym urządzenia imitujące lub zastępujące człowieka w pewnych realizacjach jego funkcji poznawczych .
Od momentu pojawienia się pojęcia, jego cele i problemy, a także jego rozwój, rodziły się liczne interpretacje, fantazje czy obawy wyrażane zarówno w opowiadaniach czy filmach science fiction , jak i w esejach filozoficznych . Rzeczywistość wciąż wydaje się trzymać sztuczną inteligencję z dala od wydajności żywych istot; w ten sposób sztuczna inteligencja jest nadal znacznie gorsza od kota we wszystkich jego naturalnych zdolnościach.
Termin „sztuczna inteligencja”, stworzony przez Johna McCarthy'ego , jest często skracany do akronimu „IA” (lub „AI” w języku angielskim od Sztucznej Inteligencji ). Został zdefiniowany przez jednego z jej twórców, Marvina Lee Minsky'ego , jako „konstruowanie programów komputerowych, które angażują się w zadania, które na chwilę obecną są wykonywane przez człowieka bardziej satysfakcjonująco, ponieważ wymagają one procesów umysłowych na wysokim poziomie, takich jak: uczenie się percepcji , organizacja pamięci i krytyczne rozumowanie” . Odnajdujemy zatem „sztuczną” stronę, do której docierają komputery lub wyrafinowane procesy elektroniczne, oraz „inteligencję” związaną z celem naśladowania zachowań . To naśladowanie może odbywać się w rozumowaniu, na przykład w grach lub w ćwiczeniu matematyki , w rozumieniu języków naturalnych , w percepcji: wzrokowej (interpretacja obrazów i scen), słuchowej (rozumienie języka mówionego) lub przez inne sensory, w kontroli robota w nieznanym lub wrogim środowisku.
Nawet jeśli ogólnie szanują definicję Minsky'ego, niektóre definicje sztucznej inteligencji różnią się w dwóch podstawowych punktach:
Historycznie rzecz biorąc, idea sztucznej inteligencji wydaje się pojawiać w latach 50., kiedy Alan Turing zastanawia się, czy maszyna może „myśleć”. W artykule " Maszyny komputerowe i inteligencja " ( Umysł ,Październik 1950), Turing bada ten problem i proponuje eksperyment (teraz zwany testem Turinga ) mający na celu ustalenie, od kiedy maszyna stanie się „ świadoma ”. Potem rozwinął tę ideę w kilku forach, w konferencji „inteligencję maszyny, o heretyckich idei ”, w konferencji dał do BBC 3 rd programu na15 maja 1951„Czy cyfrowe kalkulatory mogą myśleć? Albo dyskusja z panem HA Newmanem , Sir Geoffreyem Jeffersonem i RB Braithwaite w dniu 14 i23 stycznia 1952na temat „Czy komputery mogą myśleć?” ”.
Innym prawdopodobnym źródłem jest publikacja w 1949 roku przez Warrena Weavera memorandum o automatycznym tłumaczeniu języków, które sugeruje, że maszyna może wykonać zadanie typowo ludzkie.
Rozwój technik komputerowych (wzrost mocy obliczeniowej ) doprowadził następnie do kilku postępów:
Granice tej domeny są różne, więc optymalizacja trasy była uważana za problem sztucznej inteligencji w latach 50. XX wieku i nie jest już uważana za prosty problem algorytmiczny.
Około 2015 r. sektor sztucznej inteligencji stara się sprostać czterem wyzwaniom: percepcji wizualnej, rozumieniu pisanego lub mówionego języka naturalnego , automatycznej analizie języka i autonomicznemu podejmowaniu decyzji . Innym wyzwaniem jest tworzenie i organizowanie wielu wysokiej jakości danych, to znaczy skorelowanych, kompletnych, kwalifikowanych (pozyskiwanych, datowanych, georeferencyjnych itp.), zarchiwizowanych. Zdolność dedukcyjna i odpowiednie uogólnienie komputera, zaczynając od kilku danych lub niewielkiej liczby zdarzeń, to kolejny cel, bardziej odległy.
W latach 2010-2016 inwestycje wzrosłyby dziesięciokrotnie, osiągając w 2016 roku około dziesięciu miliardów dolarów.
Jeśli postęp sztucznej inteligencji jest niedawny, ten temat refleksji jest dość stary i pojawia się regularnie w historii. Pierwsze oznaki zainteresowania sztuczną inteligencją i głównymi prekursorami tej dyscypliny są następujące.
AutomatyJeden z najstarszych śladów motywu „człowiek w maszynie” pochodzi z 800 rpne w Egipcie . Posąg boga Amona podniósł rękę, aby wyznaczyć nowego faraona wśród paradujących przed nim zalotników, po czym „wygłosiła” mowę poświęcenia. Egipcjanie prawdopodobnie zdawali sobie sprawę z obecności księdza obsługującego mechanizm i wypowiadającego święte słowa stojące za posągiem, ale nie wydawało im się to sprzeczne z inkarnacją bóstwa. Mniej więcej w tym samym czasie Homer w Iliadzie (XVIII, 370–421) opisuje automaty wykonane przez boga kowala Hefajstosa : trójnogi ze złotymi kołami, zdolne do przenoszenia przedmiotów na Olimp i samotnego powrotu do siedziby boga ; a nawet dwie służki wykute ze złota, które pomagają mu w jego zadaniu. Podobnie Gigant z brązu Talosa , strzegący brzegów Krety , był czasami uważany za dzieło Boga.
Witruwiusz , rzymski architekt, opisał istnienie pomiędzy III E i I st wpne, szkoła założona przez inżynierów Ctesibius w Aleksandrii i mechanizmów projektowych dla zabawy jak wrony śpiewu. Heron The Elder opisuje w swoim traktacie „Automata”, karuzelę animowaną parą i uważaną za wyprzedzającą silniki parowe. Automatony zniknęły wtedy aż do końca średniowiecza . Rogerowi Baconowi przypisuje się zaprojektowanie automatów zdolnych do mowy; w rzeczywistości prawdopodobnie mechanizmy symulujące wymowę pewnych prostych słów.
Leonardo da Vinci zbudował automat w kształcie lwa w 1515 roku, by bawić króla Francji Franciszka I. Gio Battistę Aleottiego i Salomona de Caus , zbudowali sztuczne i śpiewające ptaki, mechanicznych flecistów, nimfy, smoki i ożywione satyry dla rozjaśnienia arystokratycznych festiwali, ogrodów i jaskiń. Mówi się, że René Descartes zaprojektował automat w 1649 roku, który nazwał „moją córką Francine”. Prowadzi też refleksję nad zdumiewającym modernizmem nad różnicami między naturą automatów a naturą zwierząt z jednej strony (brak różnicy), az drugiej człowieka (brak asymilacji). Analizy te czynią go mało znanym prekursorem jednego z głównych tematów science fiction : nieróżnicowania między żywym a sztucznym, między człowiekiem a robotami , androidami czy sztuczną inteligencją.
Jacques de Vaucanson zbudował w 1738 roku „ sztuczną kaczkę ze złoconej miedzi, która pije, je, kwaka, bawi się i trawi jak prawdziwa kaczka ” . Możliwe było zaprogramowanie ruchów tego automatu, dzięki zębatkom umieszczonym na wygrawerowanym cylindrze, które sterowały prętami przecinającymi nogi kaczki . Automat był wystawiany przez kilka lat we Francji, Włoszech i Anglii, a przezroczystość brzucha umożliwiła obserwację mechanizmu wewnętrznego. Urządzenie do symulacji trawienia i wydalania rodzaju zielonej owsianki jest przedmiotem kontrowersji. Niektórzy komentatorzy uważają, że ta zielona owsianka nie została zrobiona ze spożytego jedzenia, ale przygotowana z wyprzedzeniem. Inni uważają, że opinia ta opiera się wyłącznie na imitacji kaczki Vaucansona. Pożar w muzeum w Niżnym Nowogrodzie w Rosji około 1879 roku zniszczył ten automat.
Przed opracowaniem urządzeń elektromechanicznych rzemieślnicy Pierre i Louis Jaquet-Droz wyprodukowali jedne z najlepszych automatów opartych na systemie czysto mechanicznym. Niektóre z tych automatów, dzięki systemowi wielu krzywek, potrafiły napisać małą notatkę (zawsze taką samą). Wreszcie Les Contes d'Hoffmann (i balet ) L'Homme ausable opisuje mechaniczną lalkę, w której zakochuje się bohater.
Myślenie automatycznePierwsza próba formalizacji myśli znany jest zairja , qu'utilisaient mechanizm Emiraty astrologowie rzekomo do generowania pomysłów logiczne, którego wynalazek jest przypisana do Abu al-Abbas as-Sabti XII -tego wieku . Raymond Lulle prawdopodobnie zainspirował się nim do opracowania swojego Ars Magna. Misjonarz, filozof i teolog hiszpański XIII th wieku , próbował również do generowania pomysłów poprzez system mechanicznego. Losowo łączył koncepcje za pomocą swoistej suwaka , na którym obracały się koncentryczne krążki z wygrawerowanymi literami i symbolami filozoficznymi. Swoją metodę oparł na identyfikacji podstawowych pojęć, a następnie mechanicznym łączeniu ich ze sobą lub z powiązanymi pomysłami. Raymond Lulle zastosował ją do metafizyki , następnie do moralności , medycyny i astrologii . Używał jednak tylko logiki dedukcyjnej , która nie pozwalała jego systemowi na nauczenie się , ani tym bardziej kwestionowała jego wyjściowe zasady: pozwala na to tylko logika indukcyjna.
Gottfried Wilhelm Leibniz The XVII th century , stworzył obliczenia myślenia ( rachunek RATIONATOR ), przypisanie numeru do każdej koncepcji . Manipulacja tymi liczbami pozwoliłaby rozwiązać najtrudniejsze pytania, a nawet doprowadzić do uniwersalnego języka . Leibniz wykazał jednak, że jedną z głównych trudności tej metody, napotykaną również we współczesnych pracach nad sztuczną inteligencją, jest połączenie wszystkich pojęć, co nie pozwala na odizolowanie jednego pomysłu od wszystkich innych. myślący.
George Boole wynalazł matematyczne sformułowanie podstawowych procesów rozumowania, znane jako algebra Boole'a . Był świadomy powiązań jego pracy z mechanizmami inteligencji, o czym świadczy tytuł jego głównej pracy opublikowanej w 1854 r.: The Laws of Thought ( The Laws of Thought ) o algebrze Boole'a.
Gottlob Frege doprowadził do perfekcji system logiczny poprzez sformalizowanie pojęcia predykatu , który jest bytem logicznym, który jest albo prawdziwy, albo fałszywy (każdy dom ma właściciela), ale zawierający zmienne nielogiczne, sam w sobie nie mający żadnego stopnia prawdy (dom, właściciel). ). Formalizacja ta miała ogromne znaczenie, ponieważ umożliwiała wykazanie ogólnych twierdzeń po prostu przez zastosowanie reguł typograficznych do zbiorów symboli. Refleksja w języku potocznym dotyczyła jedynie wyboru zasad, które należy zastosować. Co więcej, użytkownik odgrywa ważną rolę, ponieważ zna znaczenie wymyślonych przez siebie symboli, a znaczenie to nie zawsze jest sformalizowane, co sprowadza nas z powrotem do problemu znaczenia w sztucznej inteligencji i podmiotowości użytkowników.
Bertrand Russel i Alfred North Whitehead opublikowany na początku XX th wieku książka pt Principia Mathematica , w których rozwiązywaniu wewnętrznych sprzeczności w teorii Gottlob Frege . Praca ta dała nadzieję na całkowite sformalizowanie matematyki.
Kurt Gödel dowodzi wręcz przeciwnie, że matematyka pozostanie konstrukcją otwartą, publikując w 1931 roku artykuł zatytułowany „ Formalnie nierozstrzygalne twierdzenia zawarte w Principia mathematica i innych podobnych systemach ”. Jego dowód jest taki, że z pewnej złożoności systemu możemy stworzyć w nim więcej logicznych twierdzeń, niż możemy udowodnić, że są prawdziwe lub fałszywe. Na przykład arytmetyka nie może decydować przez swoje aksjomaty, czy musimy przyjąć liczby, których kwadrat wynosi -1. Wybór ten pozostaje arbitralny i nie jest w żaden sposób powiązany z podstawowymi aksjomatami. Praca Gödla sugeruje, że możemy w ten sposób stworzyć dowolną liczbę nowych aksjomatów, zgodnych z poprzednimi, tak jak ich potrzebujemy. Jeśli okaże się, że arytmetyka jest niekompletna, obliczenie predykatów (logika formalna) jest przeciwnie wykazywane przez Gödla jako zupełne .
Alan Turing wynajduje abstrakcyjne i uniwersalne maszyny (przemianowane na maszyny Turinga ), z których współczesne komputery są uważane za konkretyzacje. On pokazuje istnienie obliczeń że żadna maszyna nie może zrobić (ani ludzkie, w przypadkach cytuje), nie będzie to stanowić dla Turinga powód, aby wątpić w możliwości maszyny spełniające kryteria myślenia. Ten test Turinga .
Irving John Good , Myron Tribus i ET Jaynes bardzo jasno opisali dość proste zasady robota logiki indukcyjnej, wykorzystując zasady wnioskowania bayesowskiego do wzbogacenia swojej bazy wiedzy opartej na twierdzeniu Coxa-Jaynesa . Niestety nie odpowiedzieli na pytanie, w jaki sposób moglibyśmy przechowywać tę wiedzę bez trybu przechowywania prowadzącego do błędu poznawczego . Projekt jest podobny do projektu Raymonda Lulle'a , ale tym razem oparty na logice indukcyjnej i dlatego nadaje się do rozwiązywania niektórych otwartych problemów .
Badacze tacy jak Alonzo Church postawili praktyczne ograniczenia ambicjom rozumu, ukierunkowując badania ( Herbert Simon , Michael Rabin , Stephen Cook ) na uzyskanie rozwiązań w skończonym czasie lub przy ograniczonych zasobach, a także na kategoryzację problemów według klas trudności (w odniesieniu do pracy Cantora o nieskończoności) .
Sztuczna inteligencja jest gorącym tematem w XXI -go wieku. W 2004 r. Instytut Singularity rozpoczął kampanię internetową pod nazwą „Trzy niebezpieczne prawa”: „ Trzy prawa niebezpieczne ” (w związku z trzema prawami Asimowa ) w celu podniesienia świadomości na temat problematyki sztucznej inteligencji i niewystarczalności praw Asimowa w szczególny. (Instytut Sztucznej Inteligencji Singularity 2004).
W 2005 roku wystartował projekt Blue Brain , którego celem jest symulacja mózgu ssaków . Jest to jedna z metod uważanych za osiąganie AI. Ogłaszają również cel wyprodukowania za dziesięć lat pierwszego „prawdziwego” mózgu elektronicznego . WMarzec 2007, rząd Korei Południowej ogłosił, że jeszcze w tym roku wyda Kartę Etyki Robotów, aby ustanowić standardy dla użytkowników i producentów. Według Park Hye-Young z Ministerstwa Informacji i Komunikacji, Karta odzwierciedla trzy prawa Asimova: próbę ustalenia podstawowych zasad przyszłego rozwoju robotyki. Wlipiec 2009, w Kalifornii odbyła się konferencja zorganizowana przez Association for the Advancement of Artificial Intelligence (AAAI), podczas której grupa informatyków kwestionuje, czy powinny istnieć ograniczenia badań, które mogłyby prowadzić do utraty kontroli nad systemami komputerowymi przez człowieka, i gdzie to jest także kwestia eksplozji (sztucznej) inteligencji i niebezpieczeństwa technologicznej osobliwości prowadzącej do zmiany epoki lub paradygmatu całkowicie poza ludzką kontrolą.
W 2009 roku Massachusetts Institute of Technology (MIT) uruchomił projekt mający na celu przemyślenie badań nad sztuczną inteligencją. Zgromadzi naukowców, którzy odnieśli sukces w dziedzinach innych niż sztuczna inteligencja. Neil Gershenfeld mówi „My w zasadzie chcę wracać 30 lat i przeglądu niektórych kierunkach, które są obecnie zamrożone . ”
W listopad 2009, US Air Force dąży do nabycia 2200 PlayStation 3 aby użyć 7- lub 8-rdzeniowego procesora komórkowego, który zawiera, aby zwiększyć możliwości swojego superkomputera składającego się z 336 PlayStation 3 (teoretycznie łącznie 52,8 peta FLOPS w podwójnej precyzji). Liczba zostanie zmniejszona do 1700 jednostek22 grudnia 2009. Projekt ma na celu przetwarzanie wideo w wysokiej rozdzielczości i „neuromorficzne przetwarzanie”, czyli tworzenie komputerów o właściwościach / funkcjach podobnych do ludzkiego mózgu.
Lata 201027 stycznia 2010US Air Force prosząc o pomoc przemysł rozwijać zaawansowaną inteligencję i gromadzenie informacji wywiadowczych ze zdolności szybkiego podejmowania decyzji, aby pomóc zmusza nas do ataku wrogów szybko na ich najbardziej wrażliwych punktów. US Air Force będzie używać sztucznej inteligencji, ontologicznego uzasadnienia i procedur obliczeniowych opartych na wiedzy, a także inne zaawansowane przetwarzanie danych, aby trafić przeciwnika w najlepszej punkcie. Z drugiej strony, do 2020 roku ponad tysiąc bombowców i myśliwców F-22 i F-35 najnowszej generacji, spośród ponad 2500 samolotów wojskowych, zostanie wyposażonych tak, aby do 2040 roku wszystkie amerykańskie samoloty bojowe były pilotowany przez sztuczną inteligencję, oprócz 10 000 pojazdów lądowych i 7 000 już zdalnie sterowanych urządzeń powietrznych.
16 lutego 2011, Watson , superkomputer zaprojektowany przez IBM , wygrywa dwie z trzech rund teleturnieju Jeopardy ! w dużej mierze pokonując swoich dwóch ludzkich konkurentów w skumulowanych zyskach. W przypadku tej sztucznej inteligencji przedstawienie polegało na odpowiadaniu na pytania dotyczące kultury ogólnej (a nie konkretnej dziedziny technicznej) w bardzo krótkim czasie. Wluty 2016, artysta i projektant Aaron Siegel proponuje wystawienie Watsona kandydata w wyborach prezydenckich w USA, aby rozpocząć debatę na temat „potencjału sztucznej inteligencji w polityce” .
W maj 2013, Google otwiera laboratorium badawczego na terenie NASA . Dzięki superkomputerowi kwantowemu zaprojektowanemu przez D-Wave Systems, który według tej firmy byłby 11 000 razy wydajniejszy od obecnego komputera (od 2013 roku), mają nadzieję na rozwinięcie sztucznej inteligencji, w szczególności uczenia maszynowego. Raymond Kurzweil jest zaangażowany wGrudzień 2012 przez Google do udziału i ulepszania uczenia maszynowego i sztucznej inteligencji.
W latach 2014-2015, po szybkim rozwoju głębokiego uczenia się i przeciwko myślicielom transhumanistycznym , niektórzy naukowcy i członkowie społeczności high-tech obawiają się, że sztuczna inteligencja w końcu przewyższy wydajność inteligencji ludzkiej . Wśród nich brytyjski astrofizyk Stephen Hawking , założyciel Microsoftu Bill Gates i dyrektor generalny Tesli Elon Musk .
Internetowi giganci coraz bardziej interesują się sztuczną inteligencją. 3 stycznia 2016Szef Facebooka , Mark Zuckerberg , postawił sobie za cel roku „zbudowanie prostej sztucznej inteligencji do kontrolowania mojego domu lub pomagania mi w pracy” . W 2013 roku stworzył już laboratorium Facebook Artifical Intelligence Research (FAIR) kierowane przez francuskiego badacza Yanna Le Cuna oraz otworzył w Paryżu stałe laboratorium badawcze w terenie.
Apple ze swojej strony przejął ostatnio kilka start-upów w sektorze ( Perceptio , VocalIQ , Emotient i Turi ).
W styczeń 2018, modele sztucznej inteligencji opracowane przez Microsoft i Alibaba z kolei pokonują ludzi w teście czytania i rozumienia przeprowadzonym na Uniwersytecie Stanforda . Do przetwarzania języka naturalnego naśladuje ludzkie rozumienie słów i zwrotów i pomóc innym komputerze modele uczenia się na przetwarzanie dużych ilości informacji przed dostarczanie konkretnych odpowiedzi na pytania skierowane do nich.
W luty 2019, instytut badawczy OpenAI informuje, że stworzył program sztucznej inteligencji zdolny do generowania tekstów tak realistycznych, że ta technologia może być niebezpieczna. Jeśli oprogramowanie jest używane w złośliwych zamiarach, może z łatwością generować wysoce wiarygodne fałszywe wiadomości . W trosce o wykorzystanie, które można z niego zrobić , OpenAI woli nie udostępniać publicznie kodu źródłowego programu.
We Francji pionierami są Alain Colmerauer , Gérard Huet , Jean-Louis Laurière , Claude-François Picard, Jacques Pitrat i Jean-Claude Simon. W 1979 r. w Tuluzie powstał coroczny ogólnopolski kongres „Rozpoznawanie formularzy i sztuczna inteligencja” . W związku z organizacją Międzynarodowej Wspólnej Konferencji na temat Sztucznej Inteligencji w Chambéry w 1993 r. i utworzeniem „sztucznej inteligencji” GRECO-ChRL w 1983 r. zrodziła się społeczność uczona , Francuskie Stowarzyszenie na rzecz Sztucznej Inteligencji (AFIA). ) w 1989 r., która między innymi organizuje krajowe konferencje sztucznej inteligencji.
17 stycznia 2017, fundusz venture capital Serena Capital uruchamia fundusz o wartości 80 mln euro przeznaczony na inwestycje w europejskie start-upy zajmujące się big data i sztuczną inteligencją. 19 stycznia 2017w Senacie odbywa się przesłuchanie : „Czy sztuczna inteligencja zagraża naszej pracy? ”. 20 stycznia 2017 r., Axelle Lemaire zamierza promować francuski potencjał naukowy i przemysłowy dzięki projektowi „France IA”.
W styczniu 2017 r., w ramach swojej misji refleksji nad kwestiami etycznymi i społecznymi poruszanymi przez technologie cyfrowe, Narodowa Komisja ds. Informatyki i Wolności (CNIL) ogłosiła zorganizowanie debaty publicznej na temat algorytmów i sztucznej inteligencji. 15 grudnia 2017 r. na zakończenie debaty, która zmobilizowała 60 partnerów (instytucje publiczne, stowarzyszenia, firmy, podmioty świata nauki, społeczeństwo obywatelskie) opublikowała swój raport „Jak pozwolić ludziom trzymać rękę za rękę? »Zawiera rekomendacje dotyczące budowy etycznego modelu sztucznej inteligencji.
We wrześniu 2017 r. Cédric Villani , pierwszy wiceprzewodniczący Parlamentarnego Biura Ewaluacji Wyborów Naukowych i Technologicznych (OPECST), był odpowiedzialny za przeprowadzenie konsultacji społecznych na temat sztucznej inteligencji. Swój raport złożył 28 marca 2018 r., w przededniu wystąpienia prezydenta republiki Emmanuela Macrona w Collège de France, aby ogłosić strategię Francji w tym zakresie. Przedstawia plan 1,5 mld euro na całą pięcioletnią kadencję, a także ewolucję francuskiego ustawodawstwa, aby umożliwić zastosowanie sztucznej inteligencji, w szczególności w zakresie obrotu pojazdami autonomicznymi . Wraz z tymi zapowiedziami udziela wywiadu Wired , wiodącemu magazynowi dla globalnej społeczności nowych technologii, i wyraża swoją wizję sztucznej inteligencji, a mianowicie, że algorytmy używane przez państwo muszą być otwarte, że sztuczna inteligencja musi być ujęta w ramy filozoficzne. i zasad etycznych oraz że musimy sprzeciwiać się używaniu broni automatycznej lub urządzeń podejmujących decyzje bez konsultacji z człowiekiem.
W marcu 2018 r. Microsoft France uruchomił Microsoft IA School, zainaugurowaną przez jej prezesa Carlo Purassantę , szkolenie otwarte dla osób porzucających naukę i wykluczonych z pracy, we współpracy z Simplon.co . Dziesięć szkół zostało uruchomionych w ciągu jednego roku od września 2018. Microsoft France stawia na rozwój sztucznej inteligencji jako nowego wektora integracji zawodowej
W październiku 2019 r. serwis ActuIA ogłosił uruchomienie pierwszego papierowego magazynu poświęconego sztucznej inteligencji.
Pojęcie silnej sztucznej inteligencji odnosi się do maszyny zdolnej nie tylko do wytwarzania inteligentnych zachowań, w szczególności do modelowania abstrakcyjnych idei, ale także do doświadczania wrażenia prawdziwej świadomości , „prawdziwych uczuć ” (cokolwiek by się nie stało). za tymi słowami) oraz „zrozumienie własnego rozumowania”.
Silna sztuczna inteligencja była siłą napędową tej dyscypliny, ale również wywołała wiele dyskusji .
Wychodząc z zasady, wspieranej przez neuronaukę , że świadomość ma wsparcie biologiczne, a więc materialne, naukowcy na ogół nie widzą teoretycznej przeszkody w tworzeniu świadomej inteligencji na materialnym podłożu innym niż biologiczne. Według silnych zwolenników sztucznej inteligencji, jeśli obecnie nie ma komputerów ani algorytmów tak inteligentnych jak ludzie, to nie jest to problem narzędzia, ale projektu. Nie byłoby ograniczeń funkcjonalnych (komputer jest uniwersalną maszyną Turinga z samymi granicami obliczalności), tylko ograniczenia związane z ludzką zdolnością do zaprojektowania odpowiedniego oprogramowania (programu, bazy danych…).
Porównanie zdolności przetwarzania informacji przez ludzki mózg z komputerem może pomóc w zrozumieniu rzędów wielkości, aby oszacować praktyczną możliwość silnej sztucznej inteligencji lub nie, a proste obliczenie mocy w kW pozwala z grubsza stwierdzić, że dana ciężarówka będzie mogła liczyć na dogodny przewóz takiego lub takiego ładunku lub jeśli będzie to dla niego niemożliwe. Oto kilka przykładów rzędów wielkości w przetwarzaniu informacji:
Tej mocy nie należy brać dosłownie. Określa przede wszystkim występujące rzędy wielkości i ich stosunkowo szybką ewolucję (do 2018 r.).
Sztuczna inteligencja dała mieszane rezultaty tylko na typowych komputerach pełniących 1970 10 7 operacje logiczne na sekundę. Ludzki mózg, składający się z 10 11 neuronów, z których każdy nie jest w stanie przełączać się więcej niż 100 razy na sekundę ze względu na czas relaksacji, umożliwiał o wiele więcej operacji przetwarzania logicznego na jednostkę czasu (10 13 operacji logicznych na sekundę). To precyzyjne techniczne utrudnienie nie istnieje już w komputerach od 2000 roku, pracujących w 64 bitach i z zegarami taktowanymi około 4 GHz , dla procesorów przeznaczonych dla osób fizycznych. W przypadku superkomputerów, takich jak Summit czy Fugaku 415-PFLOPS , stosunek liczby porównań na sekundę między komputerem a mózgiem nawet całkowicie zmienił znaczenie.
Materiał będzie więc teraz dostępne, jednak AI podkreśla trudność w wyjaśnieniu cała wiedza przydatna dla rozwiązania skomplikowanego problemu. Pewna tak zwana wiedza niejawna jest nabywana poprzez doświadczenie i nie może być sformalizowana. Uczenie się tej ukrytej wiedzy poprzez doświadczenie jest wykorzystywane od lat 80. (patrz Sieć neuronowa ). Pojawia się jednak inny rodzaj złożoności: złożoność strukturalna . Jak połączyć wyspecjalizowane moduły do przetwarzania określonego typu informacji, np. system rozpoznawania wzorców wizualnych, system rozpoznawania mowy , system związany z motywacją, koordynacją ruchową , językiem itp. . Z drugiej strony, po zaprojektowaniu systemu kognitywnego i przeprowadzeniu jego uczenia się przez doświadczenie, odpowiednia „inteligencja” może być rozpowszechniana w dużej liczbie kopii, na przykład na laptopach aktuariuszy lub bankierów, którzy mogą w ten sposób, jako A slogan przypomina nam, powiedz tak lub nie, ale powiedz to od razu dzięki tzw. wnioskom scoringowym .
Główne opinie na pytanie o silną sztuczną inteligencję (tj. obdarzoną pewnego rodzaju świadomością) są następujące:
Autorzy tacy jak Douglas Hofstadter (ale już przed nim Arthur C. Clarke czy Alan Turing ; patrz test Turinga ) również wyrażają wątpliwości co do możliwości rozróżnienia między sztuczną inteligencją, która faktycznie doświadczałaby świadomości, a inną, która symulowałaby dokładnie to zachowanie (patrz Zombie (filozofia) ). W końcu nie możemy być nawet pewni, że świadomości inne niż nasza, włączając w to ludzi, faktycznie doświadczają czegokolwiek, poza błaganiem o pytanie, czy każdy człowiek znajduje się tak samo we wszystkich innych. Znajdujemy tu znany problem solipsyzmu w filozofii .
Matematyk fizyki Roger Penrose uważa, że świadomość pochodziłaby z wykorzystania zjawisk kwantowych w mózgu (patrz mikrotubule ), uniemożliwiając realistyczną symulację kilkudziesięciu neuronów na normalnym komputerze, stąd wyniki nadal bardzo częściowa AI. Do tej pory pozostawał odosobniony w tej kwestii. Inny badacz, Andrei Kirilyuk , przedstawił od tego czasu tezę w tym samym duchu, choć mniej radykalnym.
Powszechna sztuczna inteligencja ( ogólna sztuczna inteligencja lub AGI) odnosi się do każdego systemu zdolnego do uczenia się i wykonywania dowolnego zadania, które człowiek byłby w stanie wykonać. Podczas gdy niektórzy używają terminu silna sztuczna inteligencja do określania tych systemów, inne źródła akademickie wolą zarezerwować ten termin dla systemów zdolnych do bycia świadomymi (chociaż nie ma zgody co do definicji świadomości dla sztucznej inteligencji, jak wyjaśniono poniżej. -powyżej). Pomimo postępów poczynionych w ostatnich latach obecne systemy są dalekie od możliwej AGI i pozostają czysto spekulacyjne.
Pojęcie słabej sztucznej inteligencji stanowi pragmatyczne podejście inżynierskie : dążenie do budowania coraz bardziej autonomicznych systemów (w celu obniżenia kosztów ich nadzoru), algorytmów zdolnych do rozwiązywania problemów określonej klasy itp. Ale tym razem maszyna symuluje inteligencję, wydaje się działać tak, jakby była inteligentna. Konkretne tego przykłady widzimy w programach konwersacyjnych, które próbują zdać test Turinga , takich jak ELIZA . To oprogramowanie z grubsza naśladuje zachowanie ludzi przed innymi ludźmi podczas dialogu.
Joseph Weizenbaum , twórca programu ELIZA , ostrzega opinię publiczną w swojej książce Computer Power and Human Reason : jeśli te programy „wydają się” inteligentne, to nie są: ELIZA bardzo z grubsza symuluje psychologa , natychmiast zauważając jakąkolwiek wzmiankę o ojcu lub mama, prosząc o szczegóły dotyczące konkretnego fragmentu zdania i od czasu do czasu pisząc „Rozumiem. », Ale jego autor przypomina, że to prosta mistyfikacja: program właściwie nic nie rozumie.
Zwolennicy silnej sztucznej inteligencji przyznają, że jeśli w tym przypadku rzeczywiście mamy do czynienia z prostą symulacją inteligentnego zachowania, to jest ona łatwa do wykrycia, a zatem nie do uogólnienia. Rzeczywiście, jeśli nie możemy eksperymentalnie odróżnić dwóch inteligentnych zachowań, zachowania maszyny i człowieka, jak możemy twierdzić, że te dwie rzeczy mają różne właściwości? Sam termin „symulacja inteligencji” jest kwestionowany i powinien, według nich, zostać zastąpiony przez „reprodukcję inteligencji”.
Zwolennicy słabej sztucznej inteligencji twierdzą, że większość obecnych technik sztucznej inteligencji jest inspirowana ich paradygmatem . Byłoby to na przykład podejście zastosowane przez IBM w swoim projekcie o nazwie Autonomic computing . Kontrowersje utrzymują się jednak wśród zwolenników silnej sztucznej inteligencji, którzy kwestionują tę interpretację.
A zatem prosta ewolucja, a nie rewolucja: sztuczna inteligencja jest częścią tego opisu w odpowiedniej kolejności tego, czym były badania operacyjne w latach 60. , nadzór (w języku angielskim: kontrola procesów ) w latach 70. , wspomaganie decyzji w latach 80. i eksploracja danych w lata 90. . I co więcej, z pewną ciągłością .
Jest to zwłaszcza kwestia odtworzonej inteligencji ludzkiej i programowania ad hoc uczenia się, bez istniejącej obecnie teorii ujednolicającej (2011) . Twierdzenie Coxa-Jaynesa wskazuje jednak, co jest mocnym wynikiem, że przy pięciu rozsądnych ograniczeniach każdy proces uczenia się musi być zgodny z wnioskowaniem bayesowskim lub ostatecznie niespójny, a zatem nieefektywny.
Podczas gdy termin „ sztuczna inteligencja” może odnosić się do systemu zdolnego do rozwiązywania kilku problemów stosunkowo autonomicznie, symulując tylko zasadę inteligencji, może również odnosić się do systemów zdolnych do rozwiązania tylko jednego rodzaju problemu dla predefiniowanego zestawu danych . Jako przykład możemy podać system wyszkolony do rozpoznawania odręcznych cyfr, taki jak używany przez La Poste , który pomimo doskonałej wydajności w wykonywaniu swojego zadania, nie byłby w stanie poradzić sobie z problemem wykraczającym poza to, do czego został zaprojektowany.
Te sztuczne inteligencje, zwane „ wąską sztuczną inteligencją ” („wąska sztuczna inteligencja”), są zaprojektowane specjalnie do zadania, bez szczególnego rozwoju, aby je uogólnić, tak jak silna sztuczna inteligencja. Nadal zachowują swoją użyteczność i są szeroko stosowane w przemyśle, będąc jedynymi systemami AI, które mogą być używane do czasu, gdy silna sztuczna inteligencja będzie dostępna i skomercjalizowana.
Na początku lat pięćdziesiątych, między narodzinami cybernetyki a pojawieniem się sztucznej inteligencji kilka lat później, kiedy najlepsze umysły tamtych czasów kwestionowały możliwość zbudowania myślących maszyn, Alan Turing zaproponował na początku artykułu, w którym sławny był test sprawdzający, czy maszynę można określić jako „świadomą”.
Zdefiniowanie inteligencji jest wyzwaniem i nie ma pewności, że pewnego dnia uda się to osiągnąć w sposób zadowalający. To ta uwaga skłoniła brytyjskiego matematyka Alana Turinga w 1950 roku do zaproponowania „gry w naśladowanie”, która wyznaczyła precyzyjny cel rodzącej się nauce o komputerach, których nie nazywano jeszcze przetwarzaniem danych we Frankofonii. Ta „gra w naśladownictwo” sugerowała, że fikcyjny sędzia mógłby prowadzić dialog z jednej strony z maszyną, az drugiej z człowiekiem korzystającym z terminala bez możliwości rozróżniania między nimi.
Do tej pory żadne oprogramowanie nie przeszło jeszcze tego testu, a mianowicie zachowania się w taki sposób, aby mimo wielu prób nie było dyskryminowane od człowieka. W obliczu utrzymywania się tych niepowodzeń niektórzy specjaliści, tacy jak Jean-Gabriel Ganascia, uważają, że opracowanie tak złożonego programu nie zademonstruje inteligencji programów ani ich zdolności do myślenia.
W dzisiejszych czasach maszyna z pewnością może rewidować i ewoluować cele, które zostały jej przypisane. Maszynę można nawet zaprogramować, aby była w stanie zrestrukturyzować swoją początkową wiedzę na podstawie otrzymanych lub odebranych informacji. Ale dzisiejsza maszyna nie myśli ściśle mówiąc, ponieważ nie jest świadoma siebie (a zwłaszcza swoich granic), nie może ostatecznie decydować o swoich celach ani wyobrażać sobie nowych form, reprezentacji świata.
Semantyk François Rastier , po przypomnieniu stanowisk Turinga i Grice'a na ten temat, proponuje sześć „przepisów” warunkujących rozwinięty system dialogu, precyzując, że są one już wdrożone przez istniejące systemy:
Sugeruje również, że system powinien być w stanie stworzyć reprezentację użytkownika, z którym ma do czynienia, dostosować się do niego. Ze swojej strony użytkownik ma tendencję do dostosowywania się do systemu od momentu, gdy zrozumie, że mówi do maszyny: nie będzie rozmawiał w taki sam sposób z systemem zautomatyzowanym, jak z ludzkim rozmówcą, który przedstawia projektantowi pragmatyczny zaletą uproszczenia niektórych aspektów dialogu.
Opracowano również inne testy do oceny wydajności sztucznej inteligencji:
Kilka nagród Turinga (ACM Turing Award) zostało przyznanych pionierom sztucznej inteligencji, w tym:
Te powstające cybernetyka z 1940 roku bardzo wyraźnie potwierdziła swój multidyscyplinarny charakter i zwrócił na najbardziej zróżnicowanych składek: neurofizjologii , psychologii , logiki , nauki społeczne ... I to całkiem naturalnie, że przewiduje się dwa podejścia do systemów, dwa podejścia podjęta przez naukowców kognitywistyka, a więc sztuczna inteligencja: podejście przez dekompozycję (od góry do dołu) i odwrotne podejście przez progresywną konstrukcję od dołu do góry.
Te dwa podejścia okazują się raczej komplementarne niż sprzeczne: czujemy się komfortowo, szybko rozkładając to, co dobrze wiemy, a pragmatyczne podejście, wykorzystujące tylko te elementy, które znamy, w celu zapoznania się z pojawiającymi się koncepcjami, jest bardziej przydatne w nieznanych dziedzinach. Stoją one odpowiednio u podstaw roboczych hipotez konstytuujących kognitywizm i koneksjonizm , które próbują dziś ( 2005 ) stopniowo operować ich fuzją.
Linux How-To Guide to Artificial Intelligence v3.0, zaktualizowany 15 grudnia 2012 r., dla wygody czytelnika przyjmuje następującą taksonomię:
Kognitywizm uważa, że żyje jak komputer (choć z oczywiście bardzo różne procesy) głównie obsługuje symbole elementarnych. W swojej książce Society of the Mind , Marvin Minsky , opierając się na obserwacjach psycholog Jean Piaget , widzi proces poznawczy jako konkurencję środków zapewniających częściowe odpowiedzi i których opinie są rozstrzygane przez innych agentów. Przytacza następujące przykłady z Piageta:
W ostatecznym rozrachunku te dziecięce zabawy okazują się niezbędne w kształtowaniu umysłu, które uwalniają pewne zasady rozstrzygania różnych elementów uznania, z jakimi się spotyka, metodą prób i błędów.
Koneksjonizm , odnosząc się do procesu samoorganizacji , biorąc pod uwagę funkcje poznawcze w wyniku globalnego oddziaływania elementarne części systemu. Nie można zaprzeczyć, że pies ma jakąś wiedzę na temat różniczkowych równań ruchu, ponieważ potrafi złapać patyk w powietrzu. I nie więcej niż kot ma też jakąś wiedzę o prawie spadających ciał, ponieważ zachowuje się tak, jakby wiedział, z jakiej wysokości nie powinien już próbować skakać bezpośrednio, aby zejść na ziemię. Ta władza, przypominająca nieco intuicję filozofów, charakteryzuje się uwzględnieniem i utrwaleniem elementów percepcyjnych , z których żaden, wzięty w izolacji, nie osiąga progu świadomości, a w każdym razie nie uruchamia określonej interpretacji. .
W większości prac pojawiają się trzy koncepcje:
Możemy rozważyć różne urządzenia zaangażowane, razem lub osobno, w system sztucznej inteligencji, takie jak:
Obecne osiągnięcia sztucznej inteligencji mogą interweniować w szczególności w następujących funkcjach:
Z biegiem czasu niektóre języki programowania okazały się wygodniejsze niż inne do pisania aplikacji sztucznej inteligencji. Wśród nich Lisp i Prolog były niewątpliwie najbardziej nagłośnione. ELIZA (pierwszy agent konwersacyjny , a więc nie „prawdziwa” sztuczna inteligencja) znalazła się w promieniu trzech stron SNOBOL . Używane są również języki konwencjonalne, takie jak C lub C++ , bardziej ze względu na dostępność i wydajność niż wygodę . Lisp ze swojej strony miał szereg następców mniej lub bardziej inspirowanych nim, w tym język Scheme i typowane języki programowania funkcjonalnego takie jak Haskell czy OCaml .
Dziś to Python i R dostarczają najbogatszych narzędzi w tej dziedzinie. Platformy takie jak TensorFlow i jego biblioteki wysokiego poziomu zdemokratyzowały i przyspieszyły rozwój sztucznej inteligencji.
W debacie publicznej często dochodzi do nieporozumień między „sztuczną inteligencją”, uczeniem maszynowym ( uczenie maszynowe ) a uczeniem głębokim ( uczeniem głębokim ). Jednak te pojęcia nie są równoważne, ale są zagnieżdżone:
Sztuczna inteligencja była wykorzystywana (lub jest zaangażowana) w różnych dziedzinach.
Niektóre banki wykorzystują i rozwijają eksperckie systemy oceny ryzyka związanego z udzieleniem kredytu ( credit scoring ), w szczególności wykorzystując te systemy do weryfikacji przekazywanych informacji lub ich odzyskiwania i automatycznego przetwarzania. Przykładem jest wynik FICO .
Kilka znanych nazwisk w finansach wykazało zainteresowanie takimi technologiami, z projektami takimi jak Bridgewater Associates, w których sztuczna inteligencja będzie w pełni zarządzać funduszem lub platformą analizy predykcyjnej Sidetrade .
Opracowywane są również algorytmiczne systemy transakcyjne , w których wzrost prędkości zapewniany przez automatyzację w porównaniu z ludzkimi traderami może mieć znaczenie, szczególnie w przypadku handlu o wysokiej częstotliwości .
Pole wojskowe wykorzystuje systemy takie jak drony , systemy dowodzenia i wspomagania decyzji .
Coraz większego znaczenia nabiera wykorzystanie sztucznej inteligencji na polu wojskowym. Stany Zjednoczone wydały 18 miliardów dolarów na trzy lata badań we wszystkich dziedzinach wymaganych do automatyzacji uzbrojenia wojskowego.
Trwa wyścig zbrojeń oparty na sztucznej inteligencji, czego przykładem jest Project Maven w Stanach Zjednoczonych.
Jean-Christophe Noël, ekspert z Francuskiego Instytutu Stosunków Międzynarodowych (IFRI), donosi, że sztuczna inteligencja o pseudonimie ALPHA w październiku 2015 roku zaliczyła swoją pierwszą klasę dzięki „konfrontacji z komputerowymi programami walki powietrznej z Laboratorium Badawczego Sił Powietrznych i systematycznie triumfowała nad doświadczonym pilot myśliwca w październiku 2015 roku” .
We wrześniu 2019 r. grupa zadaniowa IA francuskiego Ministerstwa Sił Zbrojnych przekazała raport szczegółowo opisujący strategię armii w obliczu tej technologii, w szczególności utworzenie jednostki dedykowanej sztucznej inteligencji we francuskiej Agencji ds. Innowacji Obronnych (AID ), a także Jednostka Koordynacji Sztucznej Inteligencji Obronnej (CCIAD). Ustawa o programowaniu wojskowym przewiduje budżet 700 mln euro na misje na rzecz AI, średnio 100 mln rocznie.
Medycyna zobaczył także wielki postęp poprzez stosowanie systemów wspomagania diagnostyki lub automatycznego rozpoznania.
W 2018 r. Google DeepMind , spółka zależna Google specjalizująca się w zaawansowanych badaniach nad sztuczną inteligencją, opublikowała wyniki eksperymentu ze sztuczną inteligencją, który może wykrywać choroby oczu. Wyniki wskazują, że AI robi to z mniejszym marginesem błędu niż okuliści.
Francja stworzyła Health Data Hub w 2019 r. , aby uprościć i nadzorować korzystanie z danych zdrowotnych.
Do walki z pandemią Covid-19 wykorzystano kilka inteligentnych systemów , w szczególności z superkomputerem Fugaku 415-PFLOPS .
Wykorzystanie AI rozwija się w dziedzinie zapobiegania przestępstwom i wykroczeniom . Na przykład brytyjska policja opracowuje tego rodzaju sztuczną inteligencję, która może działać już w marcu 2019 r. Nazywana National Data Analytics Solution (NDAS), opiera się na sztucznej inteligencji i statystykach i ma na celu oszacowanie ryzyko, że dana osoba popełni przestępstwo lub sama jest ofiarą, w celu kierowania służbami socjalnymi i medycznymi, które mogą jej doradzić.
Stosowanie narzędzi do przewidywania przestępczości na podstawie wcześniej istniejących danych jest jednak przedmiotem kontrowersji ze względu na społeczne (zwłaszcza rasowe) uprzedzenia, jakie się z tym wiąże. Rzeczywiście, logika identyfikacji wzorców specyficznych dla tych technologii odgrywa rolę we wzmacnianiu już istniejących uprzedzeń.
Ustawa używa AI w celu przewidywania decyzji sądowych, pomoc w podejmowaniu decyzji i zadecydować proste przypadki. Na przykład Estonia opracowała sztuczną inteligencję zdolną do osądzania drobnych wykroczeń. Stany Zjednoczone również stosują system w niektórych jurysdykcjach COMPASS (in) ( Korekcja Przestępcy Profilowanie Przestępców dla Alternatywnych Sankcji ), system wspomagania decyzji dla sędziów. Kilka startupów wyspecjalizowało się w tej niszy, tworząc dziedzinę legaltech .
W obszarze logistyki pojawiły się projekty wykorzystujące sztuczną inteligencję do rozwoju szczególnie w zakresie zarządzania łańcuchem dostaw ( łańcuch dostaw ) lub kwestiami dostawy, takimi jak ten na ostatnim kilometrze .
Sztuczna inteligencja jest również szeroko wykorzystywana w dziedzinie transportu publicznego , ponieważ ułatwia regulację i zarządzanie ruchem w ramach coraz bardziej skomplikowanych sieci, takich jak obecnie badany w mieście Nancy system UrbanLoop .
Nawet jeśli problemy z optymalizacją czasu podróży czy transportu należą do najstarszych zastosowań rozwiązań opartych na sztucznej inteligencji (patrz problem komiwojażera lub algorytm Dijkstry ), ostatnie postępy, szczególnie w zakresie uczenia głębokiego , umożliwiły znaczny postęp w precyzji. Niektóre projekty, takie jak Mapy Google, na przykład wykorzystują systemy sztucznej inteligencji na obszarach miejskich, aby skompensować odbicie sygnału GPS od sąsiednich budynków lub mapować obszary, w których dostępnych jest niewiele informacji.
Kilka firm ogłosiło również, że opracowało programy badań nad samochodami autonomicznymi , w szczególności Google poprzez swoją spółkę zależną Waymo , francuską firmę Navya, a nawet Teslę .
Inteligentne systemy stają się powszechne w wielu branżach. Można im powierzyć kilka zadań, w szczególności te uważane za zbyt niebezpieczne dla człowieka. Niektóre aplikacje skupiają się na systemach konserwacji predykcyjnej , umożliwiając wzrost wydajności poprzez wykrywanie problemów produkcyjnych na wcześniejszych etapach.
Robot wykorzystuje sztuczną inteligencję na wiele sposobów. W szczególności do percepcji otoczenia ( przedmiotów i twarzy ), uczenia się i rozwoju sztucznej inteligencji.
Interakcja człowiek-robota jest nadal często nie naturalny i jest problem z robotyki. Chodzi o umożliwienie robotom ewoluowania w dynamicznym i społecznym świecie ludzi oraz satysfakcjonującą interakcję z nimi. I odwrotnie, wymiana wymaga również zmiany sposobu, w jaki ludzie patrzą na roboty; Według Véronique Aubergé, badaczki z Université Grenoble-Alpes, „prawdziwa rewolucja nie jest technologiczna, lecz kulturowa” . Już teraz, dzięki robotom wyposażonym w sztuczną inteligencję, takim jak Google Home , użytkownicy pokonają izolację społeczną .
Sztuczna inteligencja jest na przykład wykorzystywana do animowania postaci niezależnych w grach wideo, które mają służyć jako przeciwnicy, pomocnicy lub towarzysze, gdy ludzcy gracze nie są dostępni lub pożądani. Opracowywane są różne poziomy złożoności.
24 stycznia 2019 r. Google DeepMind prezentuje na swoim blogu AlphaStar, sztuczną inteligencję poświęconą strategicznej grze czasu rzeczywistego StarCraft II, w której podczas meczu transmitowanego na żywo w Internecie zmierzono się z dwoma ludzkimi graczami. Podczas tej imprezy AlphaStar pokonuje dwóch profesjonalnych graczy, w tym Grzegorza „MaNa” Komincza z drużyny Team Liquid , jednego z najlepszych profesjonalnych graczy na świecie. Rozwój tej sztucznej inteligencji był możliwy dzięki partnerstwu między Google DeepMind i Blizzard Entertainment , wydawcą gry.
Od końca lat 80. artyści wykorzystywali sztuczną inteligencję, aby nadać swoim dziełom autonomiczne zachowanie. Pionierami są Francuzi Michel Bret , Edmond Couchot i Marie-Hélène Tramus, o czym świadczą dzieła takie jak La Plume i Le Pissenlit (1988), a następnie La Funambule (2000), animowane przez sieć neuronową . Amerykańskie Karl Sims , we współpracy z thingking Maszyny , założona w 1993 roku obrazy Genetycznych , maszyny wyposażonej Spośród algorytmów genetycznych . Francusko-austriacka para Christa Sommerer i Laurent Mignonneau od początku lat 90. tworzy wiele prac z dziedziny sztucznego życia, m.in. Interaktywną uprawę roślin (1992) czy A-Volve (1994) . Francuz Florent Aziosmanoff sugeruje, że wykorzystanie sztucznej inteligencji w sztuce prowadzi do powstania nowej dyscypliny wyrazu, którą nazywa sztuką żywą .
W marzec 2018, artysta Joseph Ayerle publikuje artystyczny film zatytułowany Un'emozione per semper 2.0 , w którym inscenizuje wirtualną Ornellę Muti , odtworzoną przez sztuczną inteligencję. Po zaledwie kilku dniach treningu sztuczna inteligencja jest w stanie animować twarz włoskiej aktorki, by osiągnąć sceny, których nigdy nie grała.
23 października 2018, firma aukcyjna Christie's oferuje do sprzedaży obraz Portret Edmonda de Belamy wyprodukowany przez sztuczną inteligencję przy użyciu generatywnych sieci antagonistycznych . Obraz jest sygnowany wzorem matematycznym na początku jego powstania ("Min (G) max (D) Ex [log (D (x))] + Ez [log (1-D (G (z)))) ] ”). Ta sprzedaż budzi wiele dyskusji na temat jej statusu jako dzieła artystycznego i autora dzieła: może to być sama sztuczna inteligencja lub trzej twórcy, którzy ją zaprogramowali. Praca jest kupowana za 350 000 USD. Ta sprzedaż może być postrzegana jako uznanie GAN-izmu (skrót od Generative Adversarial Networks , po francusku „generative antagonist networks”), ruchu artystycznego, który wykorzystuje sztuczną inteligencję w tworzeniu obrazu.
Artysta cyfrowy Solimán López wykorzystuje sztuczną inteligencję jako narzędzie do tworzenia bezprecedensowych interakcji z innymi mediami, narzędziami i koncepcjami. W 2019 roku w High Meshes wymyśla mikrospołeczności prawdziwych ludzi zeskanowanych w 3D metodą fotogrametrii . Dane te trafiają do oprogramowania sztucznej inteligencji, które łączy ciała w oparciu o ich czysto cyfrowe informacje bez względu na kwestie rasowe, płciowe, religijne, polityczne lub kulturowe. W projekcie DAI w 2018 roku dowody osobiste z wielu krajów są analizowane przez sztuczną inteligencję i powstają nowe dokumenty, symbolizujące świat bez granic.
Do użytku domowego , z robotami domowymi pracownika , lub do konkretnych zadań np . automatyki domowej .
W programowaniu komputerowym, w szczególności do konserwacji predykcyjnej , autouzupełniania lub pomocy rozwojowej.
W dziennikarstwie : sztuczna inteligencja (niewłaściwie nazywana „dziennikarzem-robotem”) może ostatecznie pomóc dziennikarzom, zwalniając ich z pewnych zadań, w szczególności dzień wcześniej, wszczynając depesze lub sprawdzając fałszywe wiadomości .
Korea Południowa oferuje pierwszego wirtualnego hosta telewizyjnego w listopadzie 2020 r. Podczas wiadomości.
W projektowaniu : projektowanie wspomagane komputerowo od dawna wykorzystuje algorytmy optymalizacji. W 2019 roku projektant Philippe Starck wprowadza na rynek krzesło „AIchair”, opracowane we współpracy z Autodesk .
Jak dotąd sztuczna inteligencja nie jest oficjalnie regulowana na Zachodzie. Jednak zarówno algorytmy, jak i wykorzystywane dane osobowe podlegają zasadom RODO .
18 grudnia 2018, grupa ekspertów wysokiego szczebla Unii Europejskiej ds. sztucznej inteligencji publikuje dokument zawierający wytyczne dotyczące etyki sztucznej inteligencji.
Sukcesy w AI zachęcają do spekulacji. W kręgach obeznanych z technologią mamy skłonność do entuzjazmu, ruch transhumanistyczny jest tego najlepszym wyrazem. Wręcz przeciwnie, inni są zaniepokojeni i niesieni pytaniami, czasem alarmistycznymi, także w sferze wysokich technologii. Zatem renomowanych postacie takie jak Bill Gates - były prezes Microsoft i „ikoniczna postać rewolucji informacyjnej pod koniec XX -go wieku ” - wierzy, że musimy pozostać bardzo ostrożny o rozwoju przyszłych tych technologii, które mogłyby stać się liberticides lub niebezpieczne .
Rozwój sztucznej inteligencji rodzi wiele pytań, w szczególności dotyczących możliwości dostępu przez AI lub algorytmy do świadomości , doświadczania emocji i docelowo zastępowania człowieka. Niektóre z tych reakcji są otwarcie optymistyczne, inne wręcz pesymistyczne. W 2016 roku INRIA opublikowała pierwszą Białą Księgę poświęconą AI.
Jak wyjaśnia Martin Gibert w swojej książce Moral to Robots: An Introduction to the Ethics of Algorithms , definicja terminu „sztuczna inteligencja” stawia fundamentalne pytanie: czym jest inteligencja?
Badacz sztucznej inteligencji Yann Le Cun przekonuje, że istotą inteligencji jest zdolność przewidywania . Rzeczywiście, podstawy programowania pierwszych systemów eksperckich zakładają „doskonałe opanowanie problemu i dokładne zapoznanie się z wszystkimi rozwiązaniami” . Ogólnie rzecz biorąc, te systemy eksperckie są skontrastowane z nowszym uczeniem maszynowym , techniką, w której maszyna jest nagradzana, gdy osiąga wyznaczone jej cele, z postępem analogicznym do metody prób i błędów . W latach 2010-tych najbardziej badaną techniką była technika nadzorowanego uczenia się , w której prawa są indukowane w systemie na podstawie przykładów, wzorców i automatycznych skojarzeń, co można zaobserwować w szczególności w dużych zbiorach danych . We wszystkich przypadkach skuteczność sztucznej inteligencji polega na realizacji celów stawianych przez programistów i dążeniu do autonomii decyzyjnej, która zakłada zdolność przewidywania.
Filozof John Searle uważa, że zdolność rozumienia jest ważniejsza w definicji inteligencji. Pokazuje słabość systemów sztucznej inteligencji i ograniczenia testu Turinga poprzez swoje doświadczenie z chińską komorą , stąd jego wniosek: „nie powinniśmy mówić o sztucznej inteligencji, że rozumie informacje, które przetwarza, gdy manipuluje regułami składni bez opanowanie semantyki, to znaczy bez rozpoznania znaczenia słów. Pytanie, czy możemy mówić o prawdziwej inteligencji, pozostaje zatem otwarte” .
Opisu możliwej przyszłości sztucznej inteligencji dokonał angielski statystyk Irving John Good
„Przypuśćmy, że istnieje maszyna, która inteligencją przewyższa wszystko, do czego zdolny jest człowiek, bez względu na to, jak by był genialny. Konstrukcja takich maszyn, będąca częścią działalności intelektualnej, ta maszyna mogłaby z kolei tworzyć maszyny lepsze od siebie; miałoby to niewątpliwie skutek reakcji łańcuchowej rozwijającej się inteligencji, podczas gdy inteligencja ludzka prawie by pozostała na swoim miejscu. W rezultacie ultrainteligentna maszyna będzie ostatnim wynalazkiem, jaki człowiek będzie musiał wykonać, pod warunkiem, że będzie ona na tyle posłuszna, by stale być mu posłuszna. "
Mutacja, którą wywołuje Dobro, odpowiada „jakościowej” zmianie samej zasady postępu, a niektórzy nazywają ją „ osobliwością ”. Koncepcja ta ma zasadnicze znaczenie dla wielu Transhumaniści , którzy zastanawiają się nad zagrożeniami i nadziei takim scenariuszu, niektóre będzie tak daleko, aby wyobrazić sobie pojawienie się cyfrowej „Bóg” zwanego przejąć kontrolę nad losem świata. " Ludzkości , lub połącz się z nim.
Szacuje się, że tylko dobry na co drugi przypadek zachorowania na taką maszynę przed końcem XX th wieku. Przewidywanie jeszcze się nie sprawdziły, w 2012 roku, ale przeniknięta publiczność w czasie, zwłaszcza podczas zwycięstwa z Deep Blue nad Garry'ego Kasparowa . Część opinii publicznej była rzeczywiście przekonana, że IBM właśnie opracował wektor takiej eksplozji inteligencji i że ta firma na tym skorzysta. Nadzieja była przerywana: raz wygrał, Deep Blue, prosty kalkulator oceny 200 milionów pozycji na sekundę, bez świadomości samej gry, przekształcono z powrotem do klasycznej maszynie używanej do eksploracji danych .
Rozwój sztucznej inteligencji wzbudza entuzjazm transhumanistów, w szczególności amerykańskiego inżyniera Raya Kurzweilla , według którego oczywiste jest, że w mniej lub bardziej długoterminowej perspektywie inteligencja – do tej pory ograniczona do swojego biologicznego wsparcia, czyli mózgu – będzie stają się coraz bardziej niebiologiczne i znacznie potężniejsze do tego stopnia, że cyborgi zastąpią ludzi, dzięki temu, co nazywa „zasadą osobliwości”.
Rozwój sztucznej inteligencji budzi entuzjazm, ale też poważne obawy. Niektórzy pisarze science fiction , tacy jak Isaac Asimov , William Gibson czy Arthur C. Clarke , wzorujący się na historii Ucznia czarnoksiężnika , opisują ryzyko utraty przez ludzi kontroli nad procesem technicznym. W latach 2000. wystąpili także różni intelektualiści. Podobnie jak astrofizyk Stephen Hawking , według którego istnieje realne ryzyko, że pewnego dnia maszyny staną się mądrzejsze od ludzi i w końcu zdominują je, a nawet zastąpią je w taki sam sposób, w jaki ludzie wytępili niektóre gatunki zwierząt. W listopadzie 2017 roku na targach technologicznych Web Summit w Lizbonie zadał następujące pytanie: „Czy sztuczna inteligencja pomoże nam, czy odłoży na bok, a nawet zniszczy?” ”.
W świecie zaawansowanych technologii niektórzy publicznie wyrażają podobne obawy. Tak jest w przypadku Billa Gatesa , Elona Muska i Billa Joya w 2015 roku . Według amerykańskiego specjalisty komputerowego Moshe Vardiego , sztuczna inteligencja może narazić 50% ludzkości z pracy . „Zbliżamy się do czasu, kiedy maszyny będą w stanie wyprzedzić mężczyzn w niemal każdej pracy . ” Jego pojawienie się ostatecznie postawiłoby pytanie o samą użyteczność gatunku ludzkiego.
Niektórzy producenci poważnie podchodzą do tego ryzyka. Dlatego w 2016 roku Google zadało pytanie o potencjalną utratę kontroli uczących się agentów, którzy mogliby nauczyć się zapobiegać przerwom w wykonywaniu zadania. W tym sensie firma opracowuje „ czerwony przycisk ” zintegrowany na niskim poziomie ze sztuczną inteligencją, umożliwiający dezaktywację sztucznej inteligencji, bez możliwości jej ominięcia (poza zwykłym „zabiciem” AI, celem tego „czerwony przycisk” to także zamrożenie go w procesie, unikanie jego zatrzymania, a tym samym uniknięcie resetu uczenia się lub obliczeń w toku).
Ryzyko to jest również rozpatrywane z prawnego punktu widzenia. Dlatego Parlament Europejski zwrócił się do komisji o zbadanie możliwości uznania robota ze sztuczną inteligencją za osobę prawną. W przypadku szkody wyrządzonej osobie trzeciej przez sztuczną inteligencję można nakazać jej naprawienie. Możliwe byłoby nadanie osobowości elektronicznej każdemu robotowi podejmującemu samodzielne decyzje lub współdziałającemu niezależnie z osobami trzecimi, tak samo jak osobie prawnej i fizycznej.
W Stanach Zjednoczonych Anthony Levandowski, ojciec autonomicznego samochodu , założył organizację religijną, która promuje „boskość” opartą na sztucznej inteligencji. Organizacja ta, zwana „Drogą Przyszłości”, istnieje od września 2015 roku.
Inną kwestią jest sama ilość ograniczonych zasobów, serwerów i energii zużywanej przez sztuczną inteligencję obliczeniową.
Jak wyjaśnia historyk François Jarrige, krytyka sztucznej inteligencji ma swoje korzenie w – starszych i bardziej ogólnych – technikach i technologiach, w tym Lewis Mumford (w Stanach Zjednoczonych), Jacques Ellul (we Francji) i Günther Anders (Niemcy). XX th century głównych inicjatorów, a dziś inspiruje różne kręgi bojowych (we Francji, na przykład: Części i robocizna pracy i Technologos ).
Według Jarrige ich tezy pozostają mało znane lub kontrowersyjne, ponieważ „postęp” i „państwo” są nadal w dużej mierze przeceniane. Zatem podejmowanie analiz Ellul, w animatorzy z Technologos grupy wierzą, że państwo jest zdecydowanie najmniej kwalifikacje, aby zatrzymać inicjację procesu technik i że jest do osób do rozbicia mity na państwa opiekuńczego. I postęp techniczny : „To nie technika nas zniewala, ale sacrum przeniesione do technologii (…). To nie państwo nas zniewala, to jego sakralne przemienienie”.
W raporcie z lutego 2018 r. zatytułowanym The Malicious Use of Artificial Intelligence 26 ekspertów specjalizujących się w sztucznej inteligencji ostrzega przed zagrożeniami związanymi z przestępczym wykorzystaniem sztucznej inteligencji: wzrostem cyberprzestępczości, prowadzeniem do wykorzystywania dronów w celach terrorystycznych, masową manipulacją itp.
28 września 2016giganci sektora sztucznej inteligencji tworzą „partnerstwo na rzecz sztucznej inteligencji z korzyścią dla obywateli i społeczeństwa”. W następnym roku Google DeepMind utworzył wewnętrzną jednostkę zajmującą się problemami etycznymi.
18 lipca 2018, 2400 naukowców, inżynierów i osobistości z sektora sztucznej inteligencji podpisuje list otwarty, zobowiązując się „nigdy nie uczestniczyć ani nie wspierać rozwoju, produkcji, handlu lub użycia śmiercionośnej broni autonomicznej” . List stwierdza w szczególności, że „Decyzja o odebraniu ludzkiego życia nigdy nie powinna być delegowana na maszynę. ”. Wśród sygnatariuszy są Elon Musk , liderzy Google DeepMind, Stuart Russell , Yoshua Bengio i Toby Walsh .
Troska o zastąpienie ludzkiej pracy przez maszyny nie jest nowy, i to pytanie jest już obecny wśród niektórych ekonomistów XIX e wieku, takich jak Thomas Mortimer (w) , czy David Ricardo w pierwszym rozdziale zasad gospodarki. Polityka i podatek . W 1995 roku Jeremy Rifkin opublikował End of Work: The Decline of the Global Labor Force and the Dawn of the Post-Market Era ( świt ery postmarketingowej). Prognozy zakończenia pracy są zatem powszechne i prawie zawsze towarzyszą „klastrom innowacji”.
17 września 2013 r., dwaj badacze z Oksfordu, Carl Benedikt Frey (en) i Michael A. Osborne, publikują wybiegający w przyszłość raport na temat wpływu sztucznej inteligencji i robotyzacji na zatrudnienie: The Future of Employment: How Susceptible Are Jobs to Computerization? . Przewidują, że 47% miejsc pracy może zostać zautomatyzowanych do 2030 r. Ten raport ma duży wpływ na świat akademicki i podsyca obawy dotyczące wpływu sztucznej inteligencji na zatrudnienie. Uformowali się krytycy tego raportu. Przede wszystkim Osborne i Frey rozumują w ciągłym użyciu, a według Josepha Schumpetera i jego zasady twórczej destrukcji , jeśli pewne innowacje niszczą miejsca pracy, to tworzą je także gdzie indziej. David Autor w swoim artykule „ Dlaczego wciąż jest tyle miejsc pracy? The History and Future of Workplace Automation ”opublikowany w 2015 roku kwalifikuje przewidywania Freya i Osborne'a, a tym samym kwestionuje zmiany w strukturze rynku pracy spowodowane sztuczną inteligencją.
Mimo znacznych postępów w sztucznej inteligencji w ostatnich latach nie możemy powiedzieć, że hipoteza końca pracy jeszcze się spełniła. Prawdą jest jednak, że struktura rynku pracy ulega wielkim zmianom za sprawą sztucznej inteligencji. Socjolog Antonio Casilli w swojej pracy Czekając na roboty: badanie działania kliknięcia bada konsekwencje „zakłóceń cyfrowych” związanych ze sztuczną inteligencją na strukturę zatrudnienia, badając różne formy działalności człowieka niezbędne dla produkcja sztucznej inteligencji. Ta teza jest częścią analizy tak zwanej „ pracy cyfrowej ” ( „ cyfrowej orki ” ), koncepcji ukutej w latach 2000. w celu wyznaczenia wszystkich działań online, tworzenia wartości, zwykle przechwyconej przez duże platformy cyfrowe. Praca cyfrowa jest nierozerwalnie związana z produkcją sztucznej inteligencji i może być analizowana w trzech kategoriach:
Pracuj na żądanie Ta forma charakteryzuje się tym, że jest zarówno online, jak i offline. Jest to praca związana z algorytmicznym dopasowywaniem platform, takich jak Uber , Deliveroo , a nawet Airbnb itp. W przypadku pracy na żądanie sztuczna inteligencja nie zastępuje pracy ludzkiej, ale pozwala na optymalizację zaspokojenia podaży i popytu na danym rynku. Ta forma pracy cyfrowej jest mniej powiązana z produkcją sztucznej inteligencji niż dwie kolejne, z drugiej strony sztuczna inteligencja i algorytmy wstrząsają strukturą zatrudnienia w danych sektorach działalności. Algorytmiczna optymalizacja zaspokojenia podaży i popytu sprzyja systemowi wynagradzania według zadań i pozbawia pracowników statusu pracownika. W tym przypadku konsekwencje sztucznej inteligencji dla zatrudnienia dotyczą bardziej zmiany statusu pracowników niż zastąpienia człowieka maszyną. Zadanie pozostaje takie samo, zmieniają się tylko warunki zatrudnienia i wynagrodzenia. Mikropraca Pojawienie się mikropracy jest bardzo ściśle powiązane z produkcją sztucznej inteligencji, szczególnie w fazie uczenia i kalibracji algorytmów. Rzeczywiście, wszystkie algorytmy sztucznej inteligencji (szczególnie te wykorzystujące technologię głębokiego uczenia ) potrzebują niewiarygodnej ilości danych, aby przeprowadzić uczenie się i stać się funkcjonalne. Jednak do tej pory nie ma innego rozwiązania niż odwołanie się do pracy ludzkiej w celu dostarczenia takich ilości danych. To właśnie Amazon , jeden ze światowych liderów sztucznej inteligencji, posiada największą platformę mikropracy: Amazon Mechanical Turk stworzoną w 2005 r. Pozostali liderzy sztucznej inteligencji również korzystają z usług mikroplatform.- praca: Google korzysta z EWOK , Microsoft z UHRS i IBM z Mighty IA. Te cyfrowe mikrozadania to generalnie: pisanie krótkich komentarzy, klikanie, oglądanie filmów lub zdjęć, tłumaczenie tekstu, zapewnianie widoczności strony internetowej, tworzenie playlist muzycznych, oznaczanie zdjęć lub rozpoznawanie twarzy lub obiektów na zdjęciach. W mikrozadaniach stosuje się mikropłatności: niektóre są opłacane w centach, za bardziej rozbudowane jeden lub dwa dolary. American Pew Research Center szacuje, że dwie trzecie miejsc pracy oferowanych na Amazon Mechanical Turk jest opłacanych poniżej 10 centów, a średnia stawka godzinowa została oszacowana przez naukowców na 1,38 za godzinę w 2010 roku. Według badania przeprowadzonego przez Bank Światowy z 2013 roku , wtedy miała ponad sto platform mikropracy na świecie, liczących około miliona zarejestrowanych, ale ostatnie badania wykazały, że liczba ta znacznie wzrosła, według najnowszych szacunków. najbardziej aktualne waha się od kilkudziesięciu milionów do więcej ponad 100 milionów mikropracowników na świecie. We Francji jest około 250 000 mikropracowników. Mikropraca może być postrzegana jako prawo dziedziczenia tayloryzmu, który przystosował się do gospodarki cyfrowej. Praca w sieciach społecznościowych Niektórzy socjologowie, w tym Antonio Casilli , uważają, że obecność online na platformach gromadzących nasze dane osobowe można uznać za formę pracy. Rzeczywiście, ta aktywność online jest niezbędna do wytwarzania danych, które następnie zostaną wykorzystane do udoskonalenia algorytmów. Działalność tę można zatem uznać za pracę, o ile tworzy ona wartość dla platform.Mimo obaw, jakie panują wokół hipotezy końca pracy, pomysł ten wydaje się obecnie fantazją. Praca ludzka pozostaje niezbędna w fazie uczenia się sztucznej inteligencji. Nawet wyszkolona i funkcjonalna sztuczna inteligencja często wymaga ludzkich kontroli, aby zapewnić jej prawidłowe funkcjonowanie. Najbardziej znanym przykładem w tej dziedzinie są asystenci głosowi, Amazon zakłada słuchanie rozmów użytkowników Alexy w celu „poprawy doświadczenia użytkownika”, ale to rzeczywiście ludzie stoją za tymi podsłuchami. Podobnie, tak zwane samochody autonomiczne Ubera nie mogą działać bez operatora, który nie zasiada za kierownicą, ale musi kierować pojazdem uczestnicząc w rozpoznawaniu obrazów z kamer na żywo. Uber zdecydował się również podwoić liczbę tych kierowców po pierwszym śmiertelnym wypadku na początku 2018 r. Analiza pracy cyfrowej podkreśla obecną ambiwalencję sztucznej inteligencji. Kiedy główne platformy cyfrowe i inżynierowie ogłaszają zastąpienie ludzi maszynami, konkretne badanie socjologiczne pokazuje nam, że na chwilę obecną ludzka praca jest niezbędna do wypełnienia luk w sztucznej inteligencji. Wydaje się zatem, że za obietnicami automatyzacji kryje się ostatecznie niepewność statusu pracowników (w przypadku pracy na żądanie), skrajne rozdrobnienie zadań (w przypadku mikropracy ) i niewidzialność pracy. (w przypadku pracy w sieciach społecznościowych).
Naukowcy z Instytutu Przyszłości Ludzkości z Uniwersytetu Oksfordzkiego , Uniwersytetu Yale i Al Impact przeprowadzili ankietę wśród 352 ekspertów w dziedzinie uczenia maszynowego, aby przewidzieć postęp AI w następnych dziesięcioleciach.
Eksperci zostali zapytani o czas konkretnych umiejętności i zawodów, a także ich przewidywania, kiedy sztuczna inteligencja przewyższy ludzi we wszystkich zadaniach. I jakie byłyby także implikacje społeczne. Naukowcy przewidują, że do 2024 r. maszyny będą lepiej niż ludzie tłumaczyć języki. Do 2026 r. będą mogli pisać eseje. Do 2027 r. będą jeździć ciężarówkami, a w 2031 r. będą pracować w handlu i sprzedaży.
Do 2050 roku będą mogli pisać bestsellery lub wykonywać pracę jako chirurdzy. Według naukowców istnieje 50% szans na to, że sztuczna inteligencja wyprzedzi człowieka we wszystkich dziedzinach w ciągu zaledwie 45 lat . I z tym samym prawdopodobieństwem maszyny mogą przejąć wszystkie ludzkie miejsca pracy za 120 lat . Niektórzy badacze przewidują nawet, że może to nastąpić wcześniej.
Zobacz także kategorię: Sztuczna inteligencja w sztuce i kulturze
Maszyna z sumieniem i zdolna do przeżywania uczuć – lub zachowywania się tak, jakby tak było – to klasyczny temat science fiction , w tym powieści Isaaca Asimova o robotach .
Temat ten został jednak wykorzystany bardzo wcześnie, jak w opublikowanej w 1881 roku relacji o przygodach Pinokia , gdzie kukiełka zdolna do odczuwania miłości do swego twórcy stara się zostać prawdziwym małym chłopcem, czyli w Człowieku najbardziej uzdolnionym w historii. świat , opowiadanie Amerykanina Edwarda Page'a Mitchella, w którym mózg prostego umysłu został zastąpiony komputerem inspirowanym badaniami Charlesa Babbage'a . Powieść Elastyczny lustro z Regis Messac ofert tymczasem zasada słabej sztucznej inteligencji, ale skalowalne, z natchnionych automaty prostych form życia, w reakcji na pewne bodźce, takie jak światło. Ta fabuła silnie zainspirowała film AI Artificial Intelligence w reżyserii Stevena Spielberga , oparty na pomysłach Stanleya Kubricka , którego inspiracją był sam Brian Aldiss . Dzieło Dana Simmonsa , w tym cykl Hyperiona , omawia sztuczną inteligencję. Film docelowy autorstwa Franka Herberta w fascynujący sposób inscenizuje powstanie silnej sztucznej inteligencji. Niedawno francuski pisarz Christian Léourier umieścił sztuczną inteligencję w sercu swojej krótkiej powieści Helstrid (2018), w której ta sztuczna inteligencja pozwala umrzeć człowiekowi, naruszając w ten sposób trzy prawa robotyki ustanowione przez Isaaca Asimova prawie cztery do dwudziestu lata wcześniej.
Te androidy pokazujące sztucznej inteligencji w fikcji są liczne: charakter danych z serialu Star Trek: The Next Generation to cybernetyczny istota obdarzona inteligencją, ze znacznymi możliwościami uczenia się. Jest starszym oficerem na statku kosmicznym Enterprise i ewoluuje wraz ze swoimi ludzkimi kolegami z drużyny, którzy inspirują go w jego dążeniu do ludzkości. Jego kinowym odpowiednikiem jest Bishop w filmach Obcy (1986) i Obcy 3 (1992). W mandze Ghost in the Shell , android budzi się do świadomości. W Terminator sagi z Arnoldem Schwarzeneggerem , przeprogramowany T-800 , pierwotnie przeznaczone do zabijania, wydaje się być zdolność do uczuć ludzkiego doświadczenia. Ponadto kolejni Terminatorzy wysyłani są w przeszłości przez Skynet , sztuczną inteligencję, która jest świadoma siebie i niebezpieczeństwa, jakie stwarzają sobie ludzie.
Gry, zwłaszcza strategiczne , zapisały się w historii sztucznej inteligencji, mimo że mierzą tylko określone umiejętności, takie jak zdolność maszyny do obliczania prawdopodobieństw , podejmowania decyzji, ale także uczenia się .
Hans Berliner (1929-2017), doktor informatyki w Carnegie-Mellon University i silnego szachisty , był jednym z pionierów w programowaniu dla gier komputerów. Jego praca rozpoczęła się od programu zdolnego pokonując człowieka. Zawodowe w backgammon , a następnie z 1960 roku oraz z pomocą IBM , badał stworzyć program zdolny do konkurowania z wielkimi mistrzami w szachach . Jego praca przyczyniła się kilkadziesiąt lat później do realizacji superkomputera Deep Blue .
Oprócz zdolności gier do mierzenia wydajności sztucznej inteligencji, czy to poprzez punktację, czy konfrontację z człowiekiem, gry oferują badaczom środowisko sprzyjające eksperymentowaniu, szczególnie w dziedzinie uczenia się przez wzmacnianie .
W grze Otello na planszy 8 z 8 pól każdy z graczy na zmianę umieszcza pionki w swoim kolorze (czarnym lub białym). Zwycięzcą jest ten, kto posiada pionki w dominującym kolorze.
Jedną z pierwszych sztucznych inteligencji dla Othello jest IAGO, opracowany w 1976 roku przez Caltech University w Pasadenie (Kalifornia), który z łatwością pokonuje japońskiego mistrza Fumio Fujitę.
Pierwszy turniej mężczyzn przeciwko maszynom Othello został zorganizowany w 1980 roku. Rok później nowy program turnieju zgromadził 20 systemów. W latach 1996-1997 liczba programów eksplodowała: Darwersi (1996-1999) Oliviera Arsaca, Hannibal (1996) Martina Piotte i Louisa Geoffroya, Keyano (1997) Marka Brockingtona, Logistello (1997) Michaela Buro, itp.
W 1968 r. angielski mistrz międzynarodowy David Levy rzucił wyzwanie specjalistom od sztucznej inteligencji, obstawiając ich, że żaden program komputerowy nie będzie w stanie go pokonać w szachach w ciągu następnych dziesięciu lat. Wygrał swój zakład, nie został ostatecznie pokonany przez Głęboką Myśl aż do 1989 roku.
W roku 1988, komputer HiTech od Hans Berliner był pierwszym programem pokonać Grandmaster szachów, Arnold Denker ( 74 ) w grze (3,5 do 1,5). Następnie pokonano silnych graczy, takich jak arcymistrz Bent Larsen (wówczas z 2,560 punktami Elo ), pokonany w 1988 roku przez Deep Thought w turnieju w Kalifornii.
W maju 1994 r. w Monachium program Fritz 3 działający na komputerze z monoprocesorem Pentium 90 MHz wygrał grę błyskawiczną w turnieju z mistrzem świata w szachach Garrym Kasparowem, a w sierpniu 1994 r. podczas pierwszej rundy Intel Grand Prix w Londynie mistrz świata zmierzył się z Chess Genius 2,9 (na Pentium 100 MHz ) w półszybkiej grze (30 min na mecz) i przegrał 0,5-1,5 (remis i przegrana).
W 1997 roku, zwycięstwo IBM- zaprojektowany superkomputer , Deep Blue (pseudonim Deeper Niebieski w tym rewanż ), Garry Kasparov przeciwko (3.5-2.5) stanowiła punkt zwrotny: po raz pierwszy, najlepszy gracz w szachy ludzki został pobity w mecz (a nie w pojedynczej grze) przez maszynę.
W czerwcu 2005 superkomputer Hydra wygrał z arcymistrzem Michaelem Adamsem 5 zwycięstwami, remisem i brakiem porażki.
W listopadzie 2006 Deep Fritz wygrał z mistrzem świata Vladimirem Kramnikiem z 2 zwycięstwami, 4 remisami i bez porażek, umieszczając w szczególności w drugiej części mata podstawowego (mat w jednym), którego Kramnik nie żyje, zmęczony swoimi wysiłkami podczas meczu .
W 2010 roku były mistrz świata Weselin Topałow potwierdził, używając superkomputera Blue Gene /P, wyposażonego wówczas w 8792 procesory, do swoich przygotowań do mistrzostw świata w szachach w 2010 roku .
W grudzień 2017, ogólna wersja AlphaGo Zero - następca programu DeepMind's AlphaGo , patrz poniżej w sekcji Go - nazwana AlphaZero , została opracowana, aby grać w każdą grę znając tylko zasady i ucząc się grać przeciwko sobie. Ten program został następnie przeszkolony dla Go, Shogi i Chess. Po 9 godzinach treningu AlphaZero pokonał program szachowy Sztokfisz z 28 zwycięstwami, 72 remisami i bez przegranych. Należy jednak zauważyć, że moc obliczeniowa dostępna dla AlphaZero (4 TPUv2 do grania, czyli 720 teraflopów ) jest nieskończenie większa niż moc dostępna dla Stockfisha, który wykorzystuje tylko 64 rdzenie Intela . Udało mu się również pokonać po nauce programu Shōgi Elmo (w) .
W 2015 r. sztuczna inteligencja poczyniła znaczne postępy w praktyce Go , która jest bardziej skomplikowana niż szachy (m.in. ze względu na większą liczbę pozycji: 10170 na przejście, w porównaniu do 10,50 w szachach i prawdopodobne gry: 10600 na GB, przeciwko 10120 za awarie).
W październik 2015, AlphaGo , oprogramowanie AI zaprojektowane przez DeepMind , spółkę zależną Google , po raz pierwszy pokonuje Fan Hui , trzykrotnego europejskiego mistrza go , i tym samym podejmuje to, co zostało uznane za jedno z największych wyzwań sztucznej inteligencji. Trend ten potwierdził się w marcu 2016 roku, kiedy AlphaGo trzy razy z rzędu pokonało mistrza świata tej dyscypliny Lee Sedola w pięciomeczowym pojedynku. Lee Sedol oświadczył pod koniec drugiej części, że nie znalazł „żadnej słabości” w komputerze i że jego porażka była „jednoznaczna” .
W 2011 roku zaprojektowany przez IBM IA Watson pokonał swoich ludzkich przeciwników w amerykańskim teleturnieju Jeopardy! . W tej grze pytań i odpowiedzi zrozumienie języka jest niezbędne dla maszyny; Aby to zrobić, Watson mógł polegać na dużej wewnętrznej bazie danych dostarczającej mu elementy wiedzy ogólnej i miał możliwość samodzielnego uczenia się, zwłaszcza na własnych błędach. Mimo to miał przewagę, możliwość natychmiastowego naciśnięcia (a zatem przed swoimi ludzkimi przeciwnikami) na brzęczyku, aby udzielić odpowiedzi.
Pierwszym programem komputerowym, który wygrał znaczący turniej pokerowy przeciwko profesjonalnym graczom, był Polaris w 2007 roku i od tego czasu kontynuowane są wysiłki na rzecz poprawy tego wyniku.
W 2017 roku podczas turnieju pokerowego „ Mózgi kontra sztuczna inteligencja: Upping the Ante ” („Mózg kontra sztuczna inteligencja: podnosimy stawkę”) zorganizowano w kasynie w Pensylwanii sztuczną inteligencję Libratus , opracowaną przez naukowców z Carnegie Mellon University of Pittsburgh mierzy się z ludzkimi przeciwnikami w maratonie rozłożonym na 20 dni . Przeciwstawiający się ludzkim graczom libratus wszyscy zawodowi pokerzyści kolejno konfrontują się z maszyną twarzą w twarz ( heads up (in) ) zgodnie z zasadami „ No Limit Texas Hold'em ” ( bez limitu oznacza, że nie wkładane nie są ograniczone), a następnie najpopularniejsza wersja pokera. Gry są transmitowane na żywo i przez osiem godzin dziennie na platformie Twitch .
Pod koniec ponad 120 000 rozegranych rozdań Libratus gromadzi 1 766 250 dolarów (wirtualnie). Gracz-człowiek, który przegrał najmniej pieniędzy w pojedynku z maszyną, Dong Kim, wciąż ma deficyt ponad 85 000 dolarów. W swoich recenzjach gry przeciwnika ludzcy gracze przyznają, że jest ona zarówno oszałamiająca, jak i strasznie skuteczna. Rzeczywiście, Libratus „uczy się” każdej nocy, dzięki zasobom superkomputera znajdującego się w Pittsburghu, jego ręce grały w ciągu ostatniego dnia, korzystając z 15-milionowego procesora obliczeń superkomputera.
Czyste i bezbłędne zwycięstwo maszyny wyznacza nowy etap w rozwoju sztucznej inteligencji i ilustruje postęp w przetwarzaniu przez AI „niedoskonałych informacji”, gdzie myślenie musi uwzględniać dane niepełne lub ukryte. Szacunki liczby możliwości gry w pokera No Limit twarzą w twarz SPNT to w rzeczywistości około 10 160 .
Wcześniej, w 2015 roku, zawodowy gracz Doug Polk (w) wygrał pierwszą edycję tej imprezy z AI, nazwaną Claudico (w) .
Aspekty techniczne
Perspektywiczne aspekty
Aspekty filozoficzne
Podstawy poznawcze, psychologiczne i biologiczne
Aspekty językowe
Historia
Popularyzacja
Polityka, stosunki międzynarodowe
Aspekty sądowe
Pojęcia ogólne
Pojęcia techniczne
Badacze sztucznej inteligencji (przestrzeń anglojęzyczna)
Badacze sztucznej inteligencji (obszar francuskojęzyczny)
Renomowane laboratoria i projekty badawcze w dziedzinie sztucznej inteligencji
Refleksje