Kwestia możliwości zastąpienia człowieka maszyną i stworzenia sztucznej inteligencji jest wciąż otwarta i interesuje przedstawicieli wielu dziedzin ludzkiej działalności

Pierwsze zastosowania sztucznej inteligencji są opracowywane i uważane za najbardziej niezbędne do wdrożenia w dziedzinie egzekwowania prawa, która różni się pod czterema względami:

  • prawo, czyli zbiór reguł (ustawy, instrukcje, kodeksy itp.) oraz mechanizm ich stosowania (algorytm);
  • zwiększone ryzyko w stosunku do przedstawicieli prawa;
  • możliwość popełniania błędów i ich konsekwencje;
  • ryzyko uwikłania w korupcję.

Wszystkie te znaki są oczywiście obecne również w służbie celnej, od wydajności i skoordynowanej pracy, od których w dużej mierze zależy kondycja ekonomiczna państwa. I choć różne urządzenia i urządzenia cybernetyczne zajęły już solidne miejsce w pracy organów celnych, główna decyzja pozostaje w gestii człowieka – podmiotu wolności, a ten, jak wiemy, obarczony jest pokusami, którym nie zawsze są w stanie wytrzymać .

Spróbujmy przez chwilę wyobrazić sobie następujący obraz: punkty kontrolne wyposażone są w komputery (roboty), które potrafią myśleć, uczyć się samodzielnie i posiadają funkcję podejmowania decyzji. Zaleta takich strażników jest oczywista: są głusi na problemy władzy, sławy i pieniędzy, więc nie można ich „kupić”; są jasne w wykonaniu i są ubezpieczone od przypadkowych lub umyślnych błędów; szybciej w analizie sytuacji i wyborze działań; najbardziej obiektywne, skromne, nieprzekupne, inteligentne, zdolne do uczenia się, bezstronne, logiczne, trwałe, nieustraszone, niezawodne, nie potrzebują kar za łamanie prawa, które jest podstawą ich programów itp. [5]

Możesz od razu zauważyć oczywiste niedociągnięcia:

  • zawieszanie się w sytuacji niejasnej niepewności, możliwość niepowodzenia (choć można to zakwalifikować jako „choroba”, na którą narażona jest osoba, np. infekcja wirusowa, utrata pamięci itp.);
  • nieadekwatność do wykonywania niezaprogramowanych czynności fizycznych (zatrzymanie sprawcy, poszukiwanie operacyjne, nieprzewidziana sytuacja);
  • przewidywana przez naukowców możliwość wymknięcia się spod kontroli i grożące katastrofalnymi konsekwencjami.

Ostatni moment był przez długi czas powodem zakazu tworzenia programu sztucznej inteligencji przez Klub Rzymski. Myśląca maszyna, sztucznie stworzony (choć z dobrymi intencjami) intelekt jest jak najbardziej bezduszną, głęboko nieludzką istotą. A prawo do jej tworzenia jest odmawiane jako ingerencja w prawa Boga, jedynego, który ma przywilej i funkcję Stworzenia. Ilustracyjnym przykładem takiego pomysłu jest powieść Marie Shelley „Frankenstein, czyli współczesny Prometeusz” (1818), w której naukowiec sztucznie (z trupich szczątków) tworzy ludzkie ciało, czego efektem jest brzydki i mściwy potwór. Główną winą Frankensteina nie jest jego błąd w stworzeniu człowieka ani nie zdrada własnego stworzenia, ale pragnienie stania się Stwórcą sztucznego życia.

(Co ciekawe, pod koniec XX wieku fani Kościoła Szatana w La Veia odpowiedzieli na pytanie „Jaka jest istota satanizmu?”: „Tworzymy sztucznych ludzi”, odnosząc się do Frankensteina M. Shelleya). Lalki i maszyny Hoffmana, które imitują żywych ludzi, są naprawdę złowrogie. [6,7].

Strach przed maszyną opanował umysły w epoce romantyzmu w związku z intensywną mechanizacją społeczeństwa, choć jego korzenie w tej tradycji prowadzą do prymitywnego świata magii i rytuałów pogrzebowych. W naelektryzowanej atmosferze tamtej epoki rodziły się procesy i bodźce o charakterze magicznym, które porywały dusze i wpajały postrach w mechanizację społeczeństwa. Podziemne duchy lub, jak pisze A. Tertz, „humanoidalne maszyny, które odpychają swoją martwotą, a jednocześnie przyciągają pięknem i właściwościami cudownie odradzających się rzeczy”, parowane kotły i portrety noszące pieczęć klątwy – zmarłych , sztuczny towarzysz i ludzki sobowtór, który w roli ducha lub robota wyszedł w bohaterach epoki. „Mechaniczna lalka była wówczas uważana za ostateczne osiągnięcie technologii i miała sens: technologia – najlepiej, w mocy – starała się zastąpić człowieka zmartwychwstałą rzeczą… Maszyna porośnięta wiarygodnym ludzkim ciałem, żywi trupy tworzyli ukrytą wpływ programu na społeczeństwo i artystów słowa ”. [8].

Już w samym sercu romansu, przy pierwszej próbie wejścia w światopoglądowy spór z samochodem, pojawia się przeczucie, że świat jest na złym torze. Sztuczny świat, który jest przede wszystkim całą współczesną cywilizacją, namiastką świata, coraz bardziej emancypował się od swego twórcy, wyrastał ponad niego, aż wreszcie zaczął funkcjonować według własnych praw.

W książce „Europa i dusza Wschodu” napisanej w przededniu drugiej wojny światowej W. Schubart trafnie opisał rosnącą rolę maszyny w społeczeństwie i niebezpieczeństwa związane z powszechną mechanizacją (a teraz – komputeryzacją). „Niezwykłość nowej siły życiowej” – pisze – „daje człowiekowi ostre uczucie braku woli i strachu. Czuje się pokonana przez stworzony przez siebie aparat techniczny i organizacje. Innymi słowy, mechanizmy stały się autonomiczne. Stali się demonami. Ożywiają irracjonalny element, który prometejczyk uważał za całkowicie wyrzucony za pomocą mechanizacji. Idea autonomii mechanizmów pojawiła się po raz pierwszy w nauczaniu marksistowskim, w koncepcji stosunków przemysłowych, wobec których człowiek czuje się lojalny, jakby wobec jakichś złych duchów. Cały marksizm jest niczym innym jak protestem przeciwko materializacji człowieka, przeciwko zwycięstwu nad jego stwórcą. [15].

„Technologia i polityka państwa”, mówi W. Schubart, „a także ekonomia rozwijają się zgodnie z własnymi prawami ewolucji, niezgodnymi z ludzkimi pragnieniami i nie zwracającymi na nie uwagi… Sto lat temu człowiekowi śniło się, że maszyna posłuży jej jako niewolnica starożytnego człowieka, uwalniając ją dla szlachetnej duchowej kreatywności. Ale nie jesteśmy już mistrzami całego procesu. Świat maszyn porywa nas we własnym rytmie, niezgodnym z rytmem organicznym, i prowadzi nas przez życie… Człowiek podlega zarówno maszynom, jak i organizacjom. Im bardziej są potrzebne, surowe i uniwersalne, tym groźniejsza jest arbitralność ich rządów. Myślenie prawne dusi się w masach, w obfitości ludzi i norm. Zamiast oczekiwanego bezpieczeństwa i przewidywalności egzystencji współczesny człowiek widzi wokół siebie tylko demony, z którymi nie jest już w stanie sobie poradzić. W rezultacie W. Schubart konkluduje, że „technologia weszła w etap samozniszczenia”. Raz uruchomiony samochód nie zatrzymuje się tam, gdzie chce osoba. Kieruje się własną logiką, a nie ludzkim porządkiem.

Współczesny stosunek do maszyny zdolnej do myślenia, dzieło pod wieloma względami przypomina kompletną mistykę uczuć ludzi epoki romantyzmu.

Sztuczna osoba – robot, myśląca maszyna – często utożsamiana jest z żywym trupem, zmartwychwstałym zwłokami, które upodabnia się do zaprogramowanej maszyny (przypomnijcie sobie filmy „Żołnierz doskonały”, „Zombie”, „Sędzia Dredd”, „Kosiarka” itp.). Co ponownie wskazuje na negatywny stosunek do potencjalnego konkurenta. Jednak w „Terminatorze-2” (a także w „Robocopie”) istnieje już podział na roboty złe i dobre, w zależności od ich stosunku do człowieka: „za” lub „przeciw”. Ogólna komputeryzacja, tworzenie wirtualnych programów, gier, internetu i możliwości, jakie się w tym zakresie otworzyły, znacząco zmieniły nastawienie do maszyn myślących w kierunku pozytywnym, przynosząc ich realny wygląd w życiu codziennym i pracy (istnieje już wiele programów, które potrafią uczyć się samodzielnie – pierwsze przybliżenia sztucznej inteligencji). Opisano więc obraz kontroli celnej, gdzie główną decyzję podejmie komputer (robot, automat itp.), a sztuczne urządzenia staną się celnikami, co pokazują różne filmy fantasy, w szczególności „Gość z „Przyszłość” produkcji radzieckiej z biorobotem – funkcjonariuszem celnym w sektorze czasu czy „Obcy” z głównym komputerem-koordynatorem Matki), dziś nie wydaje się tak fantastyczna. [16]

Zastanówmy się, czym w ogóle sztuczna inteligencja jest ściśle związana, w przeciwieństwie do zwykłych maszyn, z problemem psychiki i mentalności. W cybernetycznym modelowaniu psychiki należy zwrócić uwagę na dwa ważne punkty:

  • uogólnienie pojęcia „maszyny”, która w cybernetyce postrzegana jest jako urządzenie nie tylko przekształcające materię i energię, ale przede wszystkim przetwarzające informacje.
  • jedność procesów fizjologicznych i psychicznych.

Idee dotyczące roli postępu w procesach refleksji rozwijane są w tzw. modelach „żywych”, kiedy inny układ biologiczny jest wykorzystywany jako obiekt modelowy dla jakiegoś badanego układu biologicznego. Należą do nich modele otoczenia zewnętrznego i wewnętrznego oraz „modele niezbędnej przyszłości”. Wszystkie nasze wyobrażenia o świecie zewnętrznym są materialnie realizowane przez procesy nerwowe mózgu, które można rozpatrywać w postaci osobliwych modeli „środowiska zewnętrznego”. To jeden z rodzajów „żywych” modeli. Innym rodzajem są modele sztuczne, których źródłem może być np. metoda badania odruchów warunkowych. Pawłowa, która polega na odizolowaniu organizmu od rzeczywistego środowiska zewnętrznego i stworzeniu jego sztucznego uproszczonego modelu.

Mózg otrzymuje również informacje „z wnętrza” ciała – z jego narządów wewnętrznych, mięśni itp. Na tej podstawie mózg tworzy „model nerwowy” środowiska wewnętrznego – rodzaj materialnego kodu, w którym zapisywane są informacje o aktualnej sytuacji i szeregu procesów życiowych. Jeśli mózg otrzymuje informacje niezbędne do budowania środowiska zewnętrznego poprzez zmysły, tworzy odbicie lub model tego, czym to środowisko powinno się stać zgodnie z potrzebami organizmu – choć nie jest jeszcze jasne, jakim „kodem” i w jakim jakie formy . Procesy poznawcze o dowolnej złożoności są aktywnym modelowaniem postrzeganego fragmentu rzeczywistości.

Analiza cybernetycznego modelowania mózgu pozwala na wyciągnięcie dwóch ważnych wniosków metodologicznych. Pierwsza dotyczy analizy relacji między możliwościami człowieka i maszyny cybernetycznej pod kątem modelowania funkcji myślenia na maszynie. Drugi wniosek dotyczy wyjaśnienia czynników ograniczających możliwości cybernetycznego modelowania psychiki, którego jednym ze sposobów przezwyciężenia jest rozwój metod programowania heurystycznego opartych na badaniu i wykorzystaniu zasad ludzkiego myślenia.

Badania w dziedzinie sztucznej inteligencji powstały pod wpływem idei wspólnych procesów kontroli i przekazywania informacji w organizmach żywych, społeczeństwie i komputerach. Termin „sztuczna inteligencja” został wprowadzony przez J. McCarthy’ego w 1956 roku. Filozoficzna „akceptowalność” problemu wynikała z leżącej u jego podstaw idei spinozowskiej, że porządek i powiązanie idei są takie same, że porządek i związek język rzeczy”. Tak więc stworzenie w komputerze struktury odtwarzającej „świat idei” oznaczało po prostu stworzenie struktury izomorficznej ze strukturą świata materialnego, czyli zbudowanie „elektronicznego” modelu świata. Model ten interpretowano jako komputerowy model ludzkiej wiedzy o świecie, a proces ludzkiego myślenia – jako poszukiwanie takich przekształceń modelu, które miały przełożyć model komputerowy na pewien stan końcowy.

Podczas tworzenia „sztucznej inteligencji” naukowcy napotkali szereg trudności. Główne trudności polegają na tym, że wciąż nie ma jednoznacznej i ogólnie przyjętej definicji i zrozumienia „sztucznej inteligencji”.

Istnieje wiele definicji tego terminu. Tak, AV Timofiejew proponuje nazwać inteligencję „zdolnością mózgu do rozwiązywania problemów intelektualnych poprzez zdobywanie, zapamiętywanie i celowe przekształcanie wiedzy w procesie uczenia się z doświadczenia i adaptacji do różnych okoliczności”. A najważniejszą różnicą w ludzkim myśleniu jest język.

W filozofii intelekt charakteryzuje względnie stabilną strukturę zdolności umysłowych jednostki, które przejawiają się m.in. umiejętnością postrzegania informacji i wykorzystywania jej do rozwiązywania określonych problemów.

Istnieją definicje czysto behawioralne. Dla ON Według Kołmogorowa każdy system materialny, za pomocą którego można długo dyskutować o problemach nauki, literatury i sztuki, ma inteligencję. Innym przykładem inteligencji jest znana definicja A. Turinga, oparta na specjalnie zorganizowanej „grze w naśladowanie” między ludźmi a maszynami, którzy znajdują się w różnych pomieszczeniach, ale mają możliwość wymiany informacji. Jeśli w procesie dialogu między uczestnikami gry ludzie nie ustalą, że jeden z uczestników jest samochodem, to taki samochód można uznać za obdarzony inteligencją. Wadą definicji inteligencji Turinga jest to, że w zasadzie możliwe jest zbudowanie automatu z kompletnym zestawem rozwiązań wszystkich możliwych problemów – a udawana inteligencja sprowadzi się do prostego wyboru w pamięci odpowiedniego rozwiązania.

W najogólniejszym znaczeniu sztuczna inteligencja to zbiór automatycznych metod i środków celowego przetwarzania informacji zgodnie z doświadczeniem zdobytym w procesie uczenia się i adaptacji w rozwiązywaniu różnych problemów. Specyfika takiego lub innego systemu sztucznej inteligencji zależy od właściwości wbudowanych w niego algorytmów i programów oraz implementacji technicznej.

Pierwsze próby modelowania takich aspektów działalności człowieka, które wydają się człowiekowi bardzo proste, napotykały na poważne trudności. (Na przykład rozpoznawanie obrazów przez systemy sztucznej inteligencji nadal wydaje się być poważnym problemem. Należy jednak zauważyć, że problemy rozpoznawania i tłumaczenia tekstu, które wcześniej uważano za nie mniej poważne, zostały częściowo rozwiązane).

Należy zaznaczyć, że w ostatnim czasie w dziedzinie badań nad sztuczną inteligencją rozwija się kierunek związany z tworzeniem nowej klasy urządzeń obliczeniowych – neurokomputerów. W porównaniu z tradycyjnymi, uniwersalnymi komputerami, neurokomputery posiadają szereg niezwykłych właściwości generowanych przez ich architekturę, która w pewnym stopniu odzwierciedla dynamikę procesów informacyjnych w mózgu. Dlatego są dobrze przystosowane do rozwiązywania problemów z rozpoznawaniem obrazu.

Trudności w modelowaniu świadomości, nawet na poziomie emocjonalnym, związane są przede wszystkim z holistycznym, integracyjnym charakterem jej funkcjonowania. Można zatem powiedzieć, że aktywność świadomości ma charakter systemowy. Wyraża się to po pierwsze w fakcie, że pewne formy poznania zmysłowego są ze sobą powiązane i zjednoczone; po drugie, ich aktywność zasadniczo zależy od myślenia.

Wracając do problemu relacji między możliwościami człowieka i maszyny cybernetycznej w zakresie odtwarzania tej ostatniej funkcji myślenia, musimy najpierw wskazać jeden ważny wniosek, który doprowadził do cybernetyki i logiki matematycznej. Wniosek ten jest taki, że każda ściśle nakreślona i opisana matematycznie – sformalizowana i zalgorytmizowana – gałąź ludzkiej aktywności intelektualnej może w zasadzie zostać przeniesiona na maszynę („teza Turinga”). Innymi słowy, każdy proces deterministyczny, którego istotę można wyjaśnić człowiekowi, jest potencjalnie realizowany przez maszynę, która ma nieograniczony czas i nieograniczoną pamięć. Należy jednak odróżnić potencjalną wykonalność od wykonalności przy pomocy faktycznie dostępnych środków. Ponieważ oba te gatunki mogą zbiegać się tylko ze względu na nadprzyrodzoną inteligencję.

Powstaje fundamentalne pytanie: czy można modelować aktywność intelektualną, a jeśli tak, to jak to robić? Istnieją dwa punkty widzenia:

1. Wielu naukowców uważa za niekwestionowane, że komputery i roboty mogą w zasadzie posiadać wszystkie podstawowe cechy inteligencji. W ten sposób dają pozytywną odpowiedź na pytanie „czy komputery lub roboty mogą myśleć?” (A. Timofeev, A. Turing, I. Shklovsky). [17]

Istnieje kilka sposobów rozwiązywania problemów za pomocą systemów sztucznej inteligencji:

  • a) pełne sortowanie opcji, co jest praktycznie niemożliwe ze względu na dużą liczbę zadań intelektualnych;
  • b) algorytmy heurystyczne i adaptacyjne.

2. Drugi punkt widzenia jest przeciwny do pierwszego. Niektórzy opowiadają się za przeczącą odpowiedzią na pytanie, czy maszyna może przypominać człowieka. Wśród nich jest twórca cybernetyki John von Neumann. Rozważając problem maszynowego modelowania struktur neuronowych mózgu, postawił hipotezę, że jeśli system osiągnie pewien stopień złożoności, to jego opis nie może być prostszy niż on sam. Nie ulega wątpliwości, pisał Neumann, że daną fazę każdej wyobrażalnej formy zachowania można „całkowicie i jednoznacznie” opisać słowami. Ten opis może być długi, ale zawsze jest to możliwe.” Z pomysłów von Neumanna wynika, że problem stworzenia programu maszynowego zdolnego do rozwiązania wszystkich różnych problemów, które ludzki mózg z powodzeniem rozwiązuje, jest niezwykle trudny, jeśli nie beznadziejny.

Wcześniej problem sztucznej inteligencji był uważany za problem techniczny związany z implementacją programów komputerowych, które mogą wykonywać określone klasy inteligentnych operacji. Później jednak z jednej strony optymizm co do możliwości intelektualnych komputerów znacznie spadł, a z drugiej strony stało się jasne, że sztuczna inteligencja to nie tylko dobrze napisany program, jej tworzenie to niezwykle złożony problem interdyscyplinarny, który wymaga rozwiązanie wspólne wysiłki psychologów, matematyków, językoznawców itp.

Dlatego psychologia musi podać ścisłą definicję wiedzy do wykorzystania w systemach komputerowych. Językoznawcy powinni wyjaśniać, jak działa język, który jest nie tylko nośnikiem wiedzy, ale także bierze czynny udział w ich formowaniu. Ponieważ ani nauka, ani tamta nie udzieliły niezbędnych odpowiedzi, słynny przedstawiciel dyscypliny sztucznej inteligencji R. Schenk został zmuszony do stwierdzenia, że projektanci systemów komputerowych muszą tworzyć własne teorie językowe i psychologiczne, aby rozwiązywać problemy.

Obecnie istnieją dwa sposoby badania sztucznej inteligencji:

  • maszynowe sposoby rozwiązywania problemów intelektualnych powinny być budowane bez ścisłego badania osoby, wiedzy o tym, jak rozwiązuje określone problemy;
  • Naukowcy „myślicieli bionicznych” polegają na specjalnie zaprojektowanych sieciach sztucznych neuronów i innych analogach konstrukcji ludzkich. [21].

Zwróć uwagę na jedną metodę badania sztucznej inteligencji. Od samego początku nauki o sztucznej inteligencji panowało powszechne przekonanie o fundamentalnej zdolności komputera do samodzielnego badania zapisanego w nim modelu, czyli samodzielnego uczenia się strategii osiągnięcia tego celu. Dopiero w latach 80. uświadomiono sobie znaczenie wykorzystania ludzkiej wiedzy o rzeczywistości w systemach intelektualnych. Jednak już wcześniej rozpoczęto badania związane z próbą formalnego opisu i komputeryzacji wdrażania inteligentnych systemów, które nie ograniczają się do modelowania rzeczywistości czy wiedzy o rzeczywistości, ale opierają się na schematach świadomości zarówno rzeczywistości, jak i jej obrazów. Schematy te opierają się na jasnym matematycznym opisie struktur odbicia. Takie podejście faktycznie oznacza zerwanie ze spinozowską ideologią sztucznej inteligencji.

Tradycja filozoficzna nazywa refleksję myśleniem o myśli, to znaczy, kiedy przedmiotem myśli nie jest rzecz, ale fakt myślenia. Refleksja – opinia podmiotu o istniejącym obrazie rzeczywistości, czyli krytyczny obraz tego obrazu, który polega na ocenie modeli stworzonych w wyobraźni. Klasyczny paradygmat sztucznej inteligencji ignoruje tę okoliczność i dlatego nie jest zainteresowany refleksją.

Z powyższego wynika, że różnicę między potencjalnie zrealizowanym a faktycznie zrealizowanym należy dodać do różnicy między faktycznie zrealizowanym a niezrealizowanym w dającej się przewidzieć przyszłości. A tezie między cybernetyką pokrywają się granice między potencjalnie możliwym do zrealizowania i niemożliwym do zrealizowania za pomocą automatów. Dla tych, którzy uznają materialistyczne stanowisko, że każdy proces natury jest znany rozumem, ta teza o fundamentalnej możliwości komputerowej symulacji dowolnego rzeczywistego procesu, jeśli jest on jasno i jednoznacznie opisany w języku – jest naturalnym wnioskiem z logiczno-matematycznego teoria obliczeń. Nie znamy odpowiedzi na pytanie, gdzie przebiega granica między tym, co dla cybernetyki faktycznie możliwe, a tym, co jest naprawdę niemożliwe (choć być może potencjalne).

Tak jak nie ma wyczerpujących odpowiedzi na takie pytania: na jakich surowcach (informacji czy wiedzy) działają systemy sztucznej inteligencji i czy to oznacza, że systemy te powinny naśladować procesy umysłowe człowieka? Wreszcie, czy możliwe jest przekazanie do maszyny zdolności umysłowych człowieka w taki sam sposób, w jaki naturalne serce jest obecnie zastępowane przez sztuczne w ludzkim ciele?

Istnieje wiele zastrzeżeń do możliwości modelowania procesów życiowych psychiki i umysłu, które można podzielić na trzy typy:

  • Zaprzeczenie ewolucyjne. Mózg współczesnego człowieka jest wynikiem miliardów lat ewolucji. Robota nie można uczyć się zbyt długo. Dlatego dzieła intelektualne nigdy się nie pojawią. Błędem tego rozumowania jest postulowanie, że automatyczny system może naśladować odpowiednią funkcję biologiczną (myślenie, lot, itp.) tylko poprzez skopiowanie mechanizmu i ścieżki ewolucyjnej swojego biologicznego prototypu. Ruboty zaczynają uczyć się rozwiązywania problemów intelektualnych, mając już bardzo wysoką początkową organizację, nałożoną w nich przez człowieka. „Doświadczenie ewolucyjne” człowieka jest pierwotnie zainwestowane w doświadczenie robotów. Ponadto możliwy sposób naturalnego gromadzenia informacji przez „zarodek cybernetyczny” poprzez doświadczenie komunikacji.
  • Negacja społeczna, zgodnie z którą człowiek jest „istotą społeczną”, a myślenie jest funkcją nie człowieka, lecz człowieczeństwa, które powstało w wyniku zbiorowej działalności (życia społecznego) ludzi; robot ma charakter indywidualny, więc nie może mieć inteligencji. Ten zarzut zawiera ten sam błąd – postulat wyjątkowości drogi do myślenia. Powyższe nie wyklucza, że intelekt może rozwijać się w procesie indywidualnego rozwiązywania coraz bardziej złożonych problemów intelektualnych. Ponadto nie wyklucza się stworzenia „zespołu robotów” do wspólnego rozwiązywania problemów (naprawiania się, tworzenia nowych robotów, nowego oprogramowania itp.).
  • Trzeci typ wiąże się z wątpliwością co do możliwości naśladowania za pomocą nieożywionych elementów zjawiska życia w ogóle. To znaczy tworzenie, reprodukcja jego istoty na jakiejś jakościowo innej podstawie. Jednak w oparciu o funkcjonalną definicję życia podaną przez O.A. Według Lapunowa, jako „wysoce stabilny stan substancji, która wykorzystuje informacje zakodowane przez stany poszczególnych cząsteczek” do wytworzenia reakcji konserwujących, również w tym zakresie nie widać żadnych fundamentalnych komplikacji. Metody kodowania informacji mogą być różne i niekoniecznie oparte na białku. To samo dotyczy wyższego poziomu organizacji życia, poziomu cywilizacji.

Wszystkie te zastrzeżenia łączy jedna wspólna opinia, że sztuczna inteligencja musi koniecznie przypominać ludzką inteligencję.

Często stawiana teza: „jeśli ktoś robi coś w ten sposób, to maszyna powinna zrobić to samo” – jest bardzo kontrowersyjna. To nie przypadek, że słowo „sztuczna” zostało wprowadzone do nazwy problemu sztucznej inteligencji, a zatem nie do końca zrozumiało wymaganie niektórych naukowców, że inteligencja maszyn musi być dokładnie taka sama jak u ludzi. Właściwie nie ma uzasadnionego powodu, by twierdzić, że maszynowe modele rozumienia i wykorzystywania wiedzy powinny być bliższe charakterem i strukturą schematowi percepcji i przetwarzania informacji przez człowieka.

Należy zauważyć, że sama nazwa „sztuczna inteligencja” jest w rzeczywistości metaforyczna. Twórcy systemów klasy AI (sztucznej inteligencji) nie kierują się strukturami psychologicznymi wpisanymi w procesy ludzkiego myślenia. Porównanie naturalnej inteligencji ze sztuczną inteligencją dokonuje się tylko na podstawie wyników ich funkcjonowania. Należy dodać, że sztuczna inteligencja nie może dziś domagać się żadnego porównania z wielofunkcyjnością i nieograniczonymi możliwościami ludzkiej inteligencji. Jednak według niektórych ich parametrów, systemy komputerowe są w stanie znacznie przewyższyć odpowiadające im możliwości człowieka. Na tej podstawie VP Zinchenko nazywa komputer nie sztuczną inteligencją, ale instrumentem intelektualnego działania lub namacalnym narzędziem inteligencji, które może znacząco ułatwić, przyspieszyć, zwiększyć trafność podejmowania decyzji. Wielkie nadzieje pokłada się teraz w neurokomputerach, które znacząco zwiększą możliwości „sztucznej inteligencji” i, zdaniem ekspertów, w końcu prześcigną inteligencję swojego twórcy.

Załóżmy jednak, że człowiekowi udało się stworzyć inteligencję, która przewyższa jego własną. Co stanie się z ludzkością? Jaką rolę będzie odgrywać dana osoba? A czy w zasadzie konieczne jest tworzenie sztucznej inteligencji? Inteligentny system może mieć swoje pragnienia i zachowywać się tak, jak byśmy chcieli. W związku z tym pojawia się problem z bezpieczeństwem. Czy nie okaże się, że gdy tylko mózg elektroniczny osiągnie poziom ludzki, ludzkość wypełni swoją historyczną misję (jak dinozaury) i nie będzie już potrzebować natury, Boga, czy po prostu doraźności?

Jak już wspomniano, nie wyklucza się stworzenia „zespołu robotów”. Istnieje już globalna sieć Internetu, która łączy komputery w jedną dużą „społeczność komputerową”, za pośrednictwem której następuje „komunikacja” komputerów. Całkiem możliwe jest stworzenie w przyszłości cywilizacji sztucznej inteligencji – cywilizacji maszynowej. N.S. Kardashev zdefiniował cywilizację jako „wysoce stabilny stan materii zdolny do gromadzenia, abstrakcyjnej analizy i wykorzystywania informacji w celu uzyskania jakościowo nowych informacji o środowisku i sobie, do samodoskonalenia możliwości pozyskiwania nowych informacji i rozwijania zachowawczych reakcji; cywilizację dzieli ilość zgromadzonych informacji, program funkcjonowania i przestrzeń do realizacji tych funkcji. Z tego punktu widzenia nie ma sprzeczności w możliwości istnienia cywilizacji o naturze innej niż białko.

Cywilizacja maszynowa nie jest fikcją, ale ugruntowaną rzeczywistością. Inna sprawa, czy tego chcemy i czy tego potrzebujemy? Ponieważ roboty w zasadzie mogą mieć podstawowe właściwości systemów biologicznych, można je przypisać „istotom żywym”, jeśli rozumiemy ten termin dość szeroko. Tworząc doskonałe roboty, człowiek tworzy nowe życie – „życie robotów” – wysoce zorganizowane, ale bardzo unikalne i niepodobne do naszego życia. W tej chwili powstaje robotyczna „niezamieszkana” przestrzeń. Uważa się, że rola człowieka w takiej przestrzeni sprowadzi się jedynie do przygotowania programów, regulacji i naprawy sprzętu. Tendencja ta jest już obserwowana w krajach rozwiniętych, gdzie w tej dziedzinie zatrudnionych jest coraz więcej osób.

W toku rozwoju technologii i tworzenia coraz potężniejszych systemów sztucznej inteligencji, kiedy ludzkie serce nauczyło się już zastępować naturalny, pojawia się pytanie o możliwość „zastąpienia” w przyszłości ludzkiego umysłu sztucznym . MAMA. Na przykład Bierdiajew nie widział zasadniczych trudności w możliwości wprowadzenia technologii do życia organicznego, a nawet jej zastąpienia, ale uważał to wprowadzenie za szkodliwe dla cywilizacji. W takim przypadku osoba może przestać istnieć jako osoba, jednostka.

Według O.I. Rakitow, możemy już powiedzieć, że nadeszła era początkowej „cyborgizacji” człowieka – era protocyborgów. Jednocześnie protocyborgi są rodzajem aplikacji do zmiany natury ewolucji antropologicznej, która już dawno przestała być procesem czysto biologicznym.

Możemy całkowicie zgodzić się z tą opinią. Warto dodać, że twórcy sztucznej inteligencji często nie zastanawiają się nad potrzebą tej kreacji i jej możliwymi konsekwencjami, w tym społecznymi, które można szczegółowo prześledzić.

Jeden z twórców cybernetyki, N. Wiener, pisał: „Przyszłość pozostawia niewiele nadziei tym, którzy oczekują, że praca stworzy dla nas świat, w którym będziemy wolni od potrzeby myślenia. Świat przyszłości będzie wymagał jeszcze ostrzejszej walki z ograniczeniami naszych umysłów, nie pozwoli nam leżeć na łóżku w oczekiwaniu na pojawienie się robotów-niewolników.

literatura

1. Słownik encyklopedyczny: W 3 tomach / Ch. wyd. licencjat Wwiedeński. –– M., 1955. – Tom 3

2. http://www.filosofia.ru/

4. http://www.student.net.ua/psy/

5. Ashby W. Co to jest inteligentna maszyna // Oczekiwana cybernetyka i nieoczekiwana cybernetyka: Kolekcja. – M., 1968

6. Timofeev AV Robots i sztuczna inteligencja. – M., 1978

7. Turing A. Czy maszyna może myśleć? – M., 1960

8. Sieci neuronowe i neurokomputery: Sob. naukowy tr. / Akademia Nauk ZSRR. Instytut Cybernetyki. W.M. Głuszkowa / Wyd. Kussul E.M. – K., 1991

10. Hans Jørgen Eisenck „Testy IQ” / HJEysenck „Poznaj własne IQ” M .: AST: Astrel, 2005. – 255, [1] s. – Psychologia praktyczna

15. Berdiajew NA Człowiek i maszyna // Pytania filozofii. – 1989. – № 2

16. Rakitow AI Filozofia rewolucji komputerowej. – M., 1991

17. Wiener K. Twórca i robot. – M., 1966

18. Eisenka G. Kemin L. Natura inteligencji // Bitwa o umysł.- M :. EXMO-Prasa, 2002

19. Russell K., Carter.F. Ucz się szybciej, pamiętaj więcej! – M.: Izd-vo Eksmo, 2004

20. http://www.ukr.net/lybrary/experement/int/

21. http://www.rambler.ru/psy/

22. http://www.osvita.org.ua/

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.