Przyjazny sztucznej inteligencji (zwany także przyjazny RN lub LPN ) jest sztuczna inteligencja hipotetyczna że byłby pozytywny niż negatywny raczej na ludzkości . Koncepcja ta wpisuje się w etykę sztucznej inteligencji i jest ściśle związana z etyką maszyn . Podczas gdy etyka maszynowa dotyczy tego, jak powinien zachowywać się sztucznie inteligentny agent , badania nad przyjazną sztuczną inteligencją koncentrują się na tym, jak wywołać to zachowanie i zapewnić, że jest wystarczająco powściągliwe.
Termin został wymyślony przez Eliezera Yudkowsky'ego w celu omówienia superinteligentnych sztucznych agentów, które niezawodnie wdrażają ludzkie wartości. Instrukcja sztuczna inteligencja z Stuart J. Russell i Peter Norvig , Artificial Intelligence: A Modern Approach , opisuje ideę
Yudkowsky (2008) szczegółowo opisuje, jak projektować przyjazną sztuczną inteligencję. Twierdzi, że słodycz (chęć nie krzywdzenia ludzi) musi być projektowana od samego początku, ale projektanci muszą zdawać sobie sprawę, że ten projekt może być wadliwy i że robot będzie się uczył i ewoluował z czasem. Wyzwaniem jest zatem zaprojektowanie mechanizmu - zdefiniowanie mechanizmu ewolucji systemów SI, które pozostaną przyjazne w obliczu takich zmian.
W tym kontekście termin „przyjazny” jest używany jako terminologia techniczna i określa środki bezpieczne i użyteczne, niekoniecznie „przyjazne” w potocznym sensie. Pojęcie to jest wykorzystywane głównie w kontekście dyskusji na temat tej hipotetycznej technologii, która miałaby duży, szybki i trudny do kontrolowania wpływ na społeczeństwo ludzkie.
Podstawy troski o sztuczną inteligencję są bardzo stare. Kevin LaGrandeur wykazał, że specyficzne zagrożenia związane ze sztuczną inteligencją można zaobserwować w starożytnej literaturze dotyczącej sztucznych humanoidów, takich jak golem lub proto-roboty Gerberta d'Aurillaca i Rogera Bacona . W tych opowieściach ekstremalna inteligencja i moc tych humanoidalnych stworzeń przeciwstawiają się ich statusowi niewolników (którzy z natury są uważani za podludzi) i powodują katastrofalne konflikty. W 1942 roku te motywy skłoniły Izaaka Asimowa do stworzenia „ Trzech praw robotyki ” - zasad zawartych we wszystkich robotach jego fikcji, a mianowicie, że nie mogą one zwrócić się do swoich twórców ani pozwolić im skrzywdzić.
W obliczu zbliżającej się silnej sztucznej inteligencji filozof z Oksfordu Nick Bostrom powiedział, że systemy sztucznej inteligencji, których cele nie są dokładnie takie same lub nie są ściśle związane z etyką człowieka, są z natury niebezpieczne, chyba że zostaną podjęte ekstremalne środki w celu zapewnienia bezpieczeństwa ludzkości. . W Superintelligence: Paths, Dangers, Strategies stwierdza:
Zasadniczo musielibyśmy przyznać, że „superinteligentny” byłby w stanie osiągnąć takie cele, jakie są. Dlatego niezwykle ważne jest, aby cele, jakie mu stawiamy i cały system motywacyjny były „przyjazne człowiekowi”.
Niedawno Eliezer Yudkowsky wezwał do stworzenia „przyjaznej sztucznej inteligencji”, aby zmniejszyć ryzyko katastrof spowodowanych przez zaawansowaną sztuczną inteligencję. Wyjaśnia, że „AI cię nie nienawidzi, nie kocha cię, ale jesteś zbudowany z atomów, które może wykorzystać do czegoś innego. "
Steve Omohundro twierdzi, że wszystkie zaawansowane systemy AI, o ile nie zostaną wyraźnie udaremnione, wykazują szereg podstawowych popędów / tendencji / pragnień ze względu na nieodłączną naturę systemów zorientowanych na cel bez specjalnych środków ostrożności, ponieważ sztuczna inteligencja działa w sposób, który może wywołać nieposłuszeństwo i nieetyczne działania .
Alexander Wissner-Gross twierdzi, że AI dążące do maksymalizacji swojej swobody działania mogą być postrzegane jako przyjazne, jeśli ich horyzont planowania jest dłuższy niż określony próg, i nieprzyjazne, jeśli ich horyzont planowania jest krótszy niż ten próg.
Luke Muehlhauser, redaktor Machine Intelligence Research Institute , zaleca, aby badacze etyki maszyn przyjęli to, co Bruce Schneier nazywa „nastawieniem do bezpieczeństwa”: zamiast myśleć o tym, jak system będzie działał, wyobraź sobie, jak mógłby zawieść.
Ben Goertzel , badacz sztucznej inteligencji, uważa, że przyjaznej sztucznej inteligencji nie można stworzyć przy użyciu aktualnej wiedzy ludzkiej. Goertzel sugeruje, że ludzie mogą zamiast tego zdecydować się na stworzenie „ Niani AI ” z „nieco nadludzką inteligencją i inwigilacją”, aby chronić rasę ludzką przed zagrożeniami katastrofami , takimi jak nanotechnologia, i opóźniać rozwój innych inteligencji. Sztuczne (wrogie ), dopóki nie zostaną znalezione rozwiązania zabezpieczające.
James Barrat , autor Our Final Invention , zasugerował, że „należy stworzyć partnerstwo publiczno-prywatne w celu zgromadzenia liderów badań i rozwoju w celu dzielenia się pomysłami na temat bezpieczeństwa - coś w rodzaju Międzynarodowej Agencji Energii Atomowej , ale we współpracy z firmami”. Wzywa naukowców zajmujących się sztuczną inteligencją do zwołania podobnego spotkania na konferencji Asilomar poświęconej rekombinowanemu DNA , która dotyczy zagrożeń związanych z biotechnologią .
Według Gary'ego Marcusa roczna kwota wydawana na rozwój morale maszyn jest bardzo mała.
„Jego właściciel może scedować kontrolę na to, co Eliezer Yudkowsky nazywa„ przyjazną sztuczną inteligencją ”…”
.