Archiwa blogu

Konferencja Machine Ethics and Machine Law

W dniach 18-19 listopada, w Krakowie, odbędzie się konferencja poświęcona badaniom kwestii etycznych i prawnych związanych z sztucznymi systemami.

Celem konferencji jest przedstawienie różnych perspektyw: filozofii i etyki, prawa, robotyki i kognitywistyki. Organizatorzy konferencji wyrażają nadzieję, że wymiana idei między naukowcami z różnych dziedzin może poszerzyć zagadnienia dotyczące moralnego i prawnego wymiaru sztucznej inteligencji oraz pozwoli na współpracę.

hand-697264_1280.png

Strona konferencji znajduje się pod adresem :

Machine Ethics and Machine Law

 

 

 

 

 

Reklamy

18. spotkanie – Paradygmat ucieleśnionego umysłu w sztucznej inteligencji

W kwietniu miało miejsce kolejne spotkanie grupy badającej założenia filozoficzne w informatyce. Referat „The «Embodied Mind» Paradigm in Artificial Intelligence” wygłosił Piotr Urbańczyk. Vitruvian

Przedstawił kognitywistykę jako naukę interdyscyplinarną, która stara się łączyć wyniki badań innych dziedzin, by zrozumieć działanie umysłu. Paradygmaty tych dziedzin stanowią wytyczne dla badań, wskazują cele i wyznaczają kryteria. W kognitywistyce dominują paradygmaty komputacjonizmu, psychologii ewolucyjnej i ucieleśnionego umysłu. Ten ostatni ma swoje korzenie ukryte głęboko w filozofii. Powstał w wyniku kształtowania się nowych teorii lingwistycznych, ewolucyjnych a także kulturowych. Jego główne założenie wypływa z faktu, że interakcje organizmu ze światem są zakorzenione w tym świecie poprzez ciało. Odnajdujemy tu idee Maurice’a Merlou-Ponty oraz George’a Lakoffa i Marka Johnsona.

Piotr Urbańczyk pokazał w jaki sposób paradygmat embodied mind  rozwijał  w dziedzinie sztucznej inteligencji. Komputer był traktowany, zgodnie z komputacjonizmem, jako mózg elektroniczny. Myślenie było rozumiane jako działania obliczeniowe. Takie podejście zostało skrytykowane jako płytkie i mało dynamiczne. Podejście embodied mind skierowało uwagę na problem istotności – co komputer ma wiedzieć i jak dostosować działanie do zmiennego otoczenia. Podjęto próby rozwiązania problemów poprzez projektowanie agentów działających w środowisku. Agenci, wyposażeni w sensory, podejmowali natychmiastowe działanie w odpowiedzi na bodźce płynące z zewnątrz, bądź tworzyli krótkosiężne plany. Częściej próbkowali świat budując swoje reprezentacje. Ich percepcja była kodowana jako działanie. Tym samym postrzeganie świata zostało związane z działaniem. Takie podejście pozwoliło projektować systemy lepiej wykorzystywane przez ludzi i bardziej odzwierciedlające w swoim działaniu żywe umysły.

W spotkaniu wzięli udział:

R. Janusz
P. Polak
P. Urbańczyk
P. Gumułka
J. Bugajski
A. Sarosiek

Przełomowa filozofia umysłu do roku 2045? Projekt Avatar.

science-and-religion-transhumanism-will-merge-man-with-machine-e1344655873687

W swojej powieści „Perfekcyjna niedoskonałość”, J. Dukaj opisuje świat, w którym codziennością są transfery całego osobowego „ja” i świadomości ze śmiertelnego ciała na cyfrowy [nieśmiertelny] nośnik. Nieśmiertelność rozumiana jest tutaj w tym sensie, że wraz ze zużyciem materiałowym nośnika żadnej trudności nie stanowi przekopiowanie „ja” ze starego na nowy, nie rzadko technologicznie lepszy. Praktyka ta pozwala ludziom na nieśmiertelność. Nośnik,  zawierający świadomość, całą nabytą wiedzę, doświadczenie jak i osobowość, umieszczany jest w androidalnym robocie, odwzorowanym na ciele danej osoby.

Wyjątkowo zbliżona idea przyświeca interdyscyplinarnemu projektowi Avatar. W skrócie, całokształt przedsięwzięcia dzieli się na 4 etapy: etap 1, [Avatar A] zakładający stworzenie kopii ciała ludzkiego w postaci robota sterowanego za pomocą BCI [brain computer interface]; etap 2 [Avatar B, Brain B] to działania związane z tworzeniem systemów wspomagających najważniejsze funkcje mózgu oraz jego efektywnym przeszczepianiem do robota; etap 3 [Avatar C, Rebrain] na którym możliwe stanie się przenoszenie ludzkiej osobowości i świadomości poprzez cyfrowe nośniki do sztucznego mózgu w robocie; etap 4 [Avatar D] i ostatni, to plan stworzenia nano-robotów mogących przybierać dowolne kształty. To także avatary-hologramy z przeniesioną ludzką osobowością, nabytym w ciągu życia doświadczeniem, wiedzą, itd.

Kolejny problem, który można by nazwać odwiecznym, to kwestia komunikacji. Tutaj, komunikacji nie tylko człowiek-człowiek czy człowiek-maszyna jako urządzenie zewnętrzne, ale co ciekawsze, jako urządzenie wewnętrzne przy interfejsie człowiek-mózg. Założenia projektu wydają się tym samym sugerować obejście jednego z zagadnień filozofii umysłu i języka, a konkretnie zgłębienia tego co nadawca ma na myśli gdy przekazuje informacje odbiorcy. Nastąpił jego przeskok, pominięcie a punkt ciężkości w projekcie Avatar został postawiony o wiele dalej, tj., na linii człowiek-maszyna. Interesujące w tym kontekście wydaje się również rozpatrywanie człowieka i mózgu jako dwóch odrębnych od siebie elementów. To już nawet nie kartezjański dualizm gdzie mamy do czynienia z dychotomią materialne-niematerialne, ale dychotomią, wydaje się, stricte materialną.

Można zadać sobie także pytanie o powodzenie zadania. Ma ono wielce globalny charakter co może umniejszać jego potencjalnemu sukcesowi. Zwłaszcza, że tendencja do lokalizmu to podejście preferowane o ile nie rekomendowane przy uprawianiu nauki współcześnie [por: projekty małych obiektów robotowych jak np. insekty zamiast całych złożonych systemów jak np. człowiek i projekt Cog].

Zastanawia także filozofia jakiej zamierzają użyć zaangażowani w projekt naukowcy. Innymi słowy, z ich manifestu  można wnioskować, że w planach znajduje się także stworzenie całkiem nowej koncepcji filozoficznej dotyczącej aktualnie zgłębianych problemów przez chociażby filozofię umysłu i kognitywistykę. Wątpliwością napawa końcowy termin prac wyznaczony na rok 2045. Na ile uprawnione jest sądzenie, że dysponując najnowszymi technologiami,  do których nie mieli dostępu starożytni myśliciele, uda się rozwikłać problemy które zauważyli już oni?

Konsekwencją bodaj najważniejszą może być zredukowanie człowieka do cyfrowego nośnika. Jak wynika z planów grupy jest to cel celów podjętych działań ku nieśmiertelności. Czy aby uda się odwzorować całe jestestwo ludzkie za pomocą takiego środka? Czy podejście redukcjonistyczne jest w takim razie kluczem do stworzenia sztucznej inteligencji?

Niezmierną ciekawość budzą potencjalne efekty działań grupy badawczej oraz filozoficzne konsekwencje z nich wypływające. Zdrowy rozsądek podpowiada, że ogromnie trudno będzie zrealizować cele jakie postawili sobie badacze w tym projekcie. Niemniej, sytuacja w której udaje się uzyskać nieoczekiwane czy wręcz niezamierzone rezultaty przy podobnie ambitnych planach badań tak szeroko zakrojonych ma miejsce już nie tak rzadko by była nieprawdopodobna.

8. spotkanie.

Dnia 11 kwietnia w Akademii  Ignatianum odbyło się kolejne spotkanie grupy badawczej „Filozofia w informatyce”. Było ono poświęcone aplikacjom paradygmatu ucieleśnionego umysłu w pracach nad sztuczna inteligencją. W pierwszej części spotkania Anna Sarosiek przedstawiła swój referat, który prezentował próby zastosowania założeń embodied mind w pracach nad konstruowaniem sztucznej inteligencji, w szczególności na polu robotyki.

O rozwoju prac nad sztuczną inteligencją nie możemy mówić bez rozróżnienia na dwa okresy. Pierwszy z nich, komputacjonizm i nierozłącznie z nim związany funkcjonalizm, zakładały, że ludzki umysł i  mózg mogą być postrzegane jako metafora komputera. Umysł miałby tu pełnić funkcję software’u realizowaną przez mózg, będący hardwarem. Niestety pierwsza generacja badaczy SI, mimo znaczących sukcesów, nie była w pełni usatysfakcjonowana wynikami swoich prac. Komputery szybko nauczyły się grać w szachy i rozwiązywać skomplikowane zadania matematyczne, nie radziły sobie jednak z czynnościami prostymi dla kilkuletniego dziecka, takimi jak rozpoznawanie przedmiotów lub efektywne komunikowanie się. Kolejna generacja specjalistów rozpoczęła poszukiwania nowych rozwiązań. Oparli się na hipotezach M. Merlau-Ponty, mówiących, że umysł człowieka może właściwie funkcjonować dzięki realnemu kontaktowi ze środowiskiem oraz na późniejszym teoriach Lakoffa i Johnsona, które kładą nacisk na metaforyczność języka, będącą wynikiem orientacji fizycznego ciała w świecie.

Tak zaczęły powstawać pierwsze projekty. Najbardziej spektakularnym z nich był prawdopodobnie projekt Roodneya Brooksa – Cog, prowadzony w MIT w Massachusetts. Ten humanoidalny robot miał się uczyć poprzez interakcje z ludźmi w rzeczywistym środowisku. Maszyna została wyposażona w czujniki, silniki, kamery i mikrofony, mające jej zapewnić możliwość nabywania umiejętności podobnych do tych, które w trakcie swojej nauki zdobywa człowiek. Ponadto wyposażenie to miało mu zapewnić możliwość obserwacji i kontroli własnego ruchu. Nauka Coga opierała się na treningach z nauczycielami i przypominać miała przekazywanie wiedzy i umiejętności małemu dziecku.

Na Uniwersytecie Osaka Minoru Asada trwają prace nad CB2, robotem posiadającym biomimetyczne ciało, kryjące dużą liczbę sensorów i pneumatyczne mięśnie. Jest to robot-dziecko, które uczy się poruszać i rozwijać społeczne umiejętności poprzez naśladowanie opiekunów. Jego projektantom  zależy również na tym, by CB2 potrafił naśladować ludzkie emocje. Kolejnym krokiem w pracach nad CB2, ma być przyswojenie przez robota słownictwa i umiejętności poznawczych, typowych dla trzyletniego dziecka.

Inna ciekawą a zarazem ważną aplikacją paradygmatu ucieleśnionego umysłu są prace prowadzone przez Maję Matarić z USC w Kalifornii. Matarić skupia się przede wszystkim na niesieniu pomocy ludziom chorym, zagrożonym wykluczeniem społecznym. W ramach jej projektu powstają maszyny, do których zadań należą towarzyszenie i komunikowanie się z użytkownikiem w zmiennym i złożonym środowisku. Roboty maja również diagnozować i przewidywać szkody. Do ich prac należy pomoc w rehabilitacji, rekonwalescencji i zdobywaniu (lub odzyskiwaniu) umiejętności. Szczególny nacisk w badaniach jest położony na rolę emocji w procesach oceny i wyborze zachowań.

W referacie nie zostały również pominięte alternatywne badania trwające na polu artificial life. Mowa tu oczywiście o biotach i biolandii. Ten sposób modelowania sztucznego życia w sztucznym świecie daje duży wgląd w podstawowe procesy odgrywające znaczącą rolę w kształtowaniu się zachowań organizmu w swoim środowisku. Bioty, które posiadają odpowiedniki mózgu i zmysłowych receptorów uczą się i nabywają niespodziewanie różne od innych im podobnych organizmów umiejętności.

Po zakończeniu prezentacji dotychczasowych osiągnięć w badaniach nad ucieleśnioną sztuczną inteligencją wywiązała się dyskusja. Rozmawiano o perspektywach badań i możliwościach, jakie daje im współczesna nauka. Zastanawiano się nad założeniami paradygmatu ucieleśnionego umysłu, w tym nad rolą bodźców fizycznych, emocji i uczuć oraz nad sposobami ich modelowania. W związku z przedstawieniem prac Mai Matarić został również podjęty temat ucieleśnionej komunikacji. Zastanawiano się nad jej znaczeniem i przyczynami, które sprawiły, że stała się niezbędna.

W spotkaniu wzięli udział:

P. Polak

R. Janusz

R. Piechowicz

K. Czarnecki

M. Wilkowska

A. Sarosiek

Kolejne spotkanie grupy zaplanowano na 09 maja 2013 r.

Krótka refleksja nad dronami.

pop up bee-robotSłużą do patrolowania niespokojnych obszarów, w rolnictwie, geologii, mediach, służbach ratowniczych. Wyręczają człowieka gdy potrzeba poruszać się po niedostępnych lub niebezpiecznych terenach. Mogą pomagać w łapaniu łamiących przepisy ruchu drogowego. Są zdolne do zbierania tak ogromnej ilości danych, że potrzeba je filtrować by co najwyżej zasugerować nadzorującemu je człowiekowi, potencjalnie interesujący go materiał. W efekcie, przez kamery, w które są wyposażone, nagrywane są przypadkowe osoby. Niewielkie rozmiary niektórych z nich umożliwiają bezgłośne i niezauważalne dotarcie do niemal każdej lokacji, a dodatkowe zaopatrzenie w Wi-Fi, na przesyłanie zgromadzonych danych wizualnych, dźwiękowych, zapachowych oraz innych. Sprawia to, że bez trudu mogą stać się wszechobecne.

Podana specyfikacja dronów, o których mowa, czyli zdalnie sterowanych obiektów latających, czyni je pierwszorzędnymi narzędziami do szeroko pojętych działań wywiadowczych. Za ich zaletę uważa się również pomoc przy działaniach wojennych. Zwłaszcza jeśli idzie o tzw. Unmanned Aerial Vehicles [UAV], w opinii ekspertów, będą one stanowiły niebagatelną przewagę podczas konfliktów zbrojnych.  UAV ma być wyposażony m. in. w odpowiedni moduł do rozpoznawania twarzy, dzięki któremu będzie zdolny do identyfikacji wrogiej jednostki. W tym miejscu wypada zadać pytanie, co to właściwie znaczy „wroga jednostka”? Jak dokonać tego, by dron mógł odróżnić walczących od poddających się?

Środowiska sprzymierzeńcze utrzymują również, że możliwym jest uposażenie latającego robota w odpowiednie oprogramowanie, które byłoby odpowiednikiem zasad moralnego postępowania czy etycznych, takich samych jakimi posługują się ludzie, lecz w formie algorytmów. Stanowi to odpowiedź na zawołania zamieszone w traktacie „Unmanned Aircraft Systems Flight Plan 2009-2047”. Czy jednak algorytm jest w stanie uchwycić pewne subtelne lub sporne kwestie nad którymi nie jeden zespół etyków i filozofów łamie sobie głowy? Poza tym, opisywany system do kwestii etycznych będzie jeden dla wszystkich dronów w danej nacji. Oznacza to kontekstualizację, o ile nie relatywizację zasad etycznych, zachowań ludzkich i wielu innych reguł, którymi posługują się cywile na co dzień oraz żołnierze na wojnie. Dodatkowo, chociaż nie jest on zazwyczaj uznawany za preferowane podejście, sytuacjonizm może odegrać nietrywialną rolę jeśli rozważać konkretne, a co ważniejsze, bezprecedensowe, sytuacje z którymi będzie się musiał zmierzyć dron.

Docelowo w swoim sposobie działania, drony mają zostać całkowicie autonomicznymi jednostkami namierzającymi, identyfikującymi oraz annihilującymi cele. Specjaliści wspominają tu o pomocy UAV przy neutralizacji podejrzanych np. o działalność terrorystyczną. Po pierwsze, pojawia się trudność zdefiniowania tego kto to jest i jak go określić, a więc podstawowy problem znaczenia. Po drugie, w omawianym przypadku niemożliwym staje się upewnienie się, że namierzona jednostka faktycznie jest winna czy też może podejrzenia wobec niej są chybione. Oprogramowanie dronów, którym będą rozsądzały kogo zabić a kogo nie u swojej podstawy będzie się sprowadzało do 0 i 1. Czy i jeśli tak, to w  jakim stopniu cyfry te korelują ze światem rzeczywistym? Ponadto, software będzie odzwierciedleniem poglądów i przekonań jego twórców. A zatem, zachodzi obawa, że nie będzie uwzględniał różnic międzykulturowych co może doprowadzić do negatywnych skutków. Co więcej, zabijanie ludzi przez roboty latające budzi niepokój o antyseptyczność wojny. Czy aby wprowadzenie obiektów takich jak roboty nie zdejmie odpowiedzialności z człowieka wydającego komendę „kill and destroy”? Co w przypadku gdyby zaawansowanie robotów doprowadziło do momentu, w którym nadany im zostanie status osoby? Czy będą wówczas podlegały prawu i sądom? Z powyższym wiąże się także niebezpieczeństwo deprecjacji wartości życia; decyzja o wydaniu polecenia charakteryzuje się dystansem fizycznym i odseparowaniem emocjonalnym.

Do opisywanych aspektów można dodać również potencjalne problemy przejęcia dronów przez wroga i zainfekowanie systemu.

Slyszy się wiele o kolejnych postępach w zakresie dronów wojennych. Znacząco mniej, jednak, słychać głosy krytycznej uwagi. Chcemy więcej i szybciej, ale takie podejście może doprowadzić do zbyt wczesnego wykorzystania czegoś, do czego nie jesteśmy sami wewnętrznie przygotowani ani nie wiemy jak do końca się z tym obchodzić. Konkludując, proponuję zmienić tok myślenia; zamiast inwestować w drony wojenne warto by rozwinąć alternatywne, mniej drastyczne metody rozwiązywania konfliktów.

Problem qualiów rozwiązany?

Jeszcze do niedawna tekstowa komunikacja przez internet odbywała się bez użycia języka niewerbalnego. Podczas rozmowy face-to-face aż 87% informacji przekazywqualiaanych jest kanałem niewerbalnym, tj. dzięki użyciu szeroko pojętego języka ciała, gestykulacji czy też mimiki. To oczywiście tylko niektóre z jej elementów. Wymienione czynniki pozwalają na nadanie komunikatowi wydzwięku emocjonalnego, a co za tym idzie, gwarantuje on udany przekaz i jego interpretację. To właśnie przez te niedosłowne, często podświadomie odbierane sygnały odbiorca może efektywnie rekonstruować przekaz nadawcy.

Międzynarodowy projekt Cyberemotions [http://www.cyberemotions.eu/] jest, wydaje się, pierwszą (a na pewno jedną z nielicznych) próbą by zmienić status quo. Naukowcy z różnych dziedzin takich jak np. informatyka czy psychologia stworzyli program, który pozwala na wykrywanie i rozpoznawanie emocji online. Wysiłek ten, jakkolwiek ambitny, nie jest całkowicie wolny od uchybień. Można sobie bowiem zadać kardynalne pytanie po co nam taki program jeśli już posiadamy inne, alternatywne środki przekazu zabarwienia emocjonalnego wiadomości jakimi są chociażby emotikony czy tzw. kreatywne użycie klawiatury [nowatorskie zastosowanie znaków interpunkcyjnych, itp.]. Kolejnym wątpliwym aspektem jest kwestia ironii czy też codziennej niedosłowności przekazu, o użyciu przenośnym nie wspominając. Program Cyberemotions [dotowany przez Unię Europejską] ma, m. in., za zadanie przeszukiwać sieć pod kątem negatywnych uwag i opinii na temat wymienionego subsydariusza. Jednakże, działanie o takim charakterze może mieć cel dość odbiegający od oficjalnego, tj. naruszenie i powolne unicestwienie egalitaryzmu [tj. głównej maksymy internetowej] oraz wolności słowa.  Ponadto, twórcy wydają się nie zauważać (czy też może celowo ignorują) 40 lat, które poświęcono na tworzenie sztucznych systemów dialogowych (tzw. chatbot’ów). Współcześnie tylko niewielka grupa badaczy nadal zajmuje się tym zagadnieniem. Powodem było wiele nieudanych prób na przestrzeni prawie półwiecza, które wykazywały, że realizacją silnej AI miałaby zakończyć się sukcesem. Cyberemotions to software bazujący na korpusie tekstowym; u podstaw jego działania leży więc jego analiza par excellance.

CYBEREMOTIONS is a research domain that studies observable and analyzable phenomena related to any means of communication provided by the Internet – such as text, sound, visual (…) [moje podkreślenie]

A particular emphasis lies on the automatic analysis of online messages using methodologies such as sentiment analysis to provide access to emotional cues in large samples. [http://www.cyberemotions.eu/index.html]

Do powyższych uwag można dołączyć te tyczące się limitacji samych maszyn czy języków programowania używanych do emulacji emocji. Tylko dlatego, że dysponujemy najszybszymi, być może już niedługo kwantowymi komputerami, nie oznacza, że są one właściwym medium do symulacji czegoś tak nieuchwytnego i złożonego jak emocje. Dlaczego mielibyśmy sądzić, że akurat teraz i akurat na komputerach powiedzie się to przedsięwzięcie? Czy to aby nie ukryty, choć dawno obalony i skrytykowany funkcjonalizm i redukcjonizm?

Na uwagę zasługuje również określnik użyty przez twórców na stronie. W przytoczonym cytacie chodzi o przymiotnik collective:

The project focuses on the role of collective emotions in creating, forming and breaking-up e-communities. [http://www.cyberemotions.eu/index.html][moje podkreślenie]

Pochodzący z angielskiego, leksem collective można tłumaczyć jako zbiorowy czy też „kolektywny”. Oznaczałoby to, że w kontekście badań nad cyberemocjami coś tak indywidualnego i niepowtarzalnego jak egzemplifikacja emocji zostało zgeneralizowane i tym samym pozbawione swojej niepowtarzalności. Niemniej jednak, czy emocje można rozpatrywać w sposób zunifikowany i zgeneralizowany? Dla projektu jako całości, podobny błąd metodologiczny, który zostaje popełniony na etapie preliminariów może w znacznym stopniu zaważyć na wiarygodności rezultatów. Co więcej, należy zachować dystans również co do efektu końcowego, który może przedstawiać pewnego rodzaju hybrydę danej emocji niż jej wiarygodną reprezentację.

Powyższe uwagi stanowią rozpoczęcie do dyskusji nad projektem jak i samego zagadnienia zdigitalizowanych emocji; już pobieżna lektura zagadnienia dostarcza materiału na znacznie dokładniejszą analizę. Tym bardziej zasługuje ono na bliższą uwagę. Na nieszczęście wykonawców historia nauki pokazuje, że nawet najbardziej śmiały i dobrze rokujący projekt gdy pozbawiony konstruktywnej refleksji krytycznej może utknąć w martwym punkcie póki jakiś filozof nie skłoni się by go z powrotem skierować na obiecujące tory dzięki celnym uwagom krytycznym.

3. spotkanie

W dniu 28 czerwca br. odbyło się kolejne spotkanie grupy Filozofii w Informatyce, które miało miejsce w Ignatianum. Plan spotkania przedstawiał się następująco:

1. Omówienie propozycji działań związanych z obchodami Roku Turinga.

2. Referat M. Wilkowskiej „Pragmatyczna analiza rozumienia i użycia języka przez systemy sztucznej inteligencji – na przykładzie języka chatbot’ów” oraz jego dyskusja.

Streszczenie:

Zagadnienia z dziedziny artificial intelligence (pol. sztuczna inteligencja (SI)), a zwłaszcza pytania o inteligencję i samoświadomość maszyn, budzą dziś wiele zainteresowania. Tematyce SI atrakcyjności dodaje wynik zeszłorocznego Testu Turing’a (TT), w którym po raz pierwszy człowiek został pokonany przez system dialogowy SI. Bot o którym mowa to Cleverbot. W założeniu TT zwycięstwo bot’a oznacza, że posiada on samoświadomość, co ocenia się na podstawie jego umiejętności posługiwania się językiem naturalnym, będącym na poziomie nieodróżnialnym od człowieka. Przedstawiona w referacie analiza miała na celu sprawdzić czy zwycięski bot będzie potrafił zrozumieć znaczenia pragmatyczne czyli język użyty w kontekście. Jak dotąd problem kontekstu nie został jeszcze rozwiązany, tj. przełożony na język binarny. Wygrana Cleverbot’a wydaje się więc inspirować do badania jego kompetencji językowych pod kątem pragmatycznym, może ona oznaczać, że w jakiś sposób wyzwanie to zostało pokonane. Dla celów porównawczych umiejętności i postępów technologicznych zastosowanych w Cleverbot’cie starszy bot, Alice, został poddany identycznej analizie. Obydwa systemy zostały przetestowane na rozumienie i użycie 16 zagadnień pragmatycznych. Przeprowadzone testy wykazały znaczące różnice w 6 z nich. Otrzymane rezultaty nie uprawniają do wyłonienia zwycięzcy. W efekcie, pytanie o samoświadomość i inteligencję SI bazując na podstawie posługiwania się językiem pozostaje otwartym. To samo ma się z kwestią tego, czy bot rzeczywiście rozumie i używa języka tak jak człowiek, czy też jest to jedynie iluzja i ludzka nadinterpretacja komputacyjnego zachowania bota.

Prezentacja ze spotkania dostępna tutaj (format pdf).

W spotkaniu wzięli udział:

  1. M. Hohol
  2. R. Janusz
  3. P. Polak
  4. P. Urbańczyk
  5. M. Wilkowska