Archiwa blogu

Konferencja Machine Ethics and Machine Law

W dniach 18-19 listopada, w Krakowie, odbędzie się konferencja poświęcona badaniom kwestii etycznych i prawnych związanych z sztucznymi systemami.

Celem konferencji jest przedstawienie różnych perspektyw: filozofii i etyki, prawa, robotyki i kognitywistyki. Organizatorzy konferencji wyrażają nadzieję, że wymiana idei między naukowcami z różnych dziedzin może poszerzyć zagadnienia dotyczące moralnego i prawnego wymiaru sztucznej inteligencji oraz pozwoli na współpracę.

hand-697264_1280.png

Strona konferencji znajduje się pod adresem :

Machine Ethics and Machine Law

 

 

 

 

 

Reklamy

Problem qualiów rozwiązany?

Jeszcze do niedawna tekstowa komunikacja przez internet odbywała się bez użycia języka niewerbalnego. Podczas rozmowy face-to-face aż 87% informacji przekazywqualiaanych jest kanałem niewerbalnym, tj. dzięki użyciu szeroko pojętego języka ciała, gestykulacji czy też mimiki. To oczywiście tylko niektóre z jej elementów. Wymienione czynniki pozwalają na nadanie komunikatowi wydzwięku emocjonalnego, a co za tym idzie, gwarantuje on udany przekaz i jego interpretację. To właśnie przez te niedosłowne, często podświadomie odbierane sygnały odbiorca może efektywnie rekonstruować przekaz nadawcy.

Międzynarodowy projekt Cyberemotions [http://www.cyberemotions.eu/] jest, wydaje się, pierwszą (a na pewno jedną z nielicznych) próbą by zmienić status quo. Naukowcy z różnych dziedzin takich jak np. informatyka czy psychologia stworzyli program, który pozwala na wykrywanie i rozpoznawanie emocji online. Wysiłek ten, jakkolwiek ambitny, nie jest całkowicie wolny od uchybień. Można sobie bowiem zadać kardynalne pytanie po co nam taki program jeśli już posiadamy inne, alternatywne środki przekazu zabarwienia emocjonalnego wiadomości jakimi są chociażby emotikony czy tzw. kreatywne użycie klawiatury [nowatorskie zastosowanie znaków interpunkcyjnych, itp.]. Kolejnym wątpliwym aspektem jest kwestia ironii czy też codziennej niedosłowności przekazu, o użyciu przenośnym nie wspominając. Program Cyberemotions [dotowany przez Unię Europejską] ma, m. in., za zadanie przeszukiwać sieć pod kątem negatywnych uwag i opinii na temat wymienionego subsydariusza. Jednakże, działanie o takim charakterze może mieć cel dość odbiegający od oficjalnego, tj. naruszenie i powolne unicestwienie egalitaryzmu [tj. głównej maksymy internetowej] oraz wolności słowa.  Ponadto, twórcy wydają się nie zauważać (czy też może celowo ignorują) 40 lat, które poświęcono na tworzenie sztucznych systemów dialogowych (tzw. chatbot’ów). Współcześnie tylko niewielka grupa badaczy nadal zajmuje się tym zagadnieniem. Powodem było wiele nieudanych prób na przestrzeni prawie półwiecza, które wykazywały, że realizacją silnej AI miałaby zakończyć się sukcesem. Cyberemotions to software bazujący na korpusie tekstowym; u podstaw jego działania leży więc jego analiza par excellance.

CYBEREMOTIONS is a research domain that studies observable and analyzable phenomena related to any means of communication provided by the Internet – such as text, sound, visual (…) [moje podkreślenie]

A particular emphasis lies on the automatic analysis of online messages using methodologies such as sentiment analysis to provide access to emotional cues in large samples. [http://www.cyberemotions.eu/index.html]

Do powyższych uwag można dołączyć te tyczące się limitacji samych maszyn czy języków programowania używanych do emulacji emocji. Tylko dlatego, że dysponujemy najszybszymi, być może już niedługo kwantowymi komputerami, nie oznacza, że są one właściwym medium do symulacji czegoś tak nieuchwytnego i złożonego jak emocje. Dlaczego mielibyśmy sądzić, że akurat teraz i akurat na komputerach powiedzie się to przedsięwzięcie? Czy to aby nie ukryty, choć dawno obalony i skrytykowany funkcjonalizm i redukcjonizm?

Na uwagę zasługuje również określnik użyty przez twórców na stronie. W przytoczonym cytacie chodzi o przymiotnik collective:

The project focuses on the role of collective emotions in creating, forming and breaking-up e-communities. [http://www.cyberemotions.eu/index.html][moje podkreślenie]

Pochodzący z angielskiego, leksem collective można tłumaczyć jako zbiorowy czy też „kolektywny”. Oznaczałoby to, że w kontekście badań nad cyberemocjami coś tak indywidualnego i niepowtarzalnego jak egzemplifikacja emocji zostało zgeneralizowane i tym samym pozbawione swojej niepowtarzalności. Niemniej jednak, czy emocje można rozpatrywać w sposób zunifikowany i zgeneralizowany? Dla projektu jako całości, podobny błąd metodologiczny, który zostaje popełniony na etapie preliminariów może w znacznym stopniu zaważyć na wiarygodności rezultatów. Co więcej, należy zachować dystans również co do efektu końcowego, który może przedstawiać pewnego rodzaju hybrydę danej emocji niż jej wiarygodną reprezentację.

Powyższe uwagi stanowią rozpoczęcie do dyskusji nad projektem jak i samego zagadnienia zdigitalizowanych emocji; już pobieżna lektura zagadnienia dostarcza materiału na znacznie dokładniejszą analizę. Tym bardziej zasługuje ono na bliższą uwagę. Na nieszczęście wykonawców historia nauki pokazuje, że nawet najbardziej śmiały i dobrze rokujący projekt gdy pozbawiony konstruktywnej refleksji krytycznej może utknąć w martwym punkcie póki jakiś filozof nie skłoni się by go z powrotem skierować na obiecujące tory dzięki celnym uwagom krytycznym.

3. spotkanie

W dniu 28 czerwca br. odbyło się kolejne spotkanie grupy Filozofii w Informatyce, które miało miejsce w Ignatianum. Plan spotkania przedstawiał się następująco:

1. Omówienie propozycji działań związanych z obchodami Roku Turinga.

2. Referat M. Wilkowskiej „Pragmatyczna analiza rozumienia i użycia języka przez systemy sztucznej inteligencji – na przykładzie języka chatbot’ów” oraz jego dyskusja.

Streszczenie:

Zagadnienia z dziedziny artificial intelligence (pol. sztuczna inteligencja (SI)), a zwłaszcza pytania o inteligencję i samoświadomość maszyn, budzą dziś wiele zainteresowania. Tematyce SI atrakcyjności dodaje wynik zeszłorocznego Testu Turing’a (TT), w którym po raz pierwszy człowiek został pokonany przez system dialogowy SI. Bot o którym mowa to Cleverbot. W założeniu TT zwycięstwo bot’a oznacza, że posiada on samoświadomość, co ocenia się na podstawie jego umiejętności posługiwania się językiem naturalnym, będącym na poziomie nieodróżnialnym od człowieka. Przedstawiona w referacie analiza miała na celu sprawdzić czy zwycięski bot będzie potrafił zrozumieć znaczenia pragmatyczne czyli język użyty w kontekście. Jak dotąd problem kontekstu nie został jeszcze rozwiązany, tj. przełożony na język binarny. Wygrana Cleverbot’a wydaje się więc inspirować do badania jego kompetencji językowych pod kątem pragmatycznym, może ona oznaczać, że w jakiś sposób wyzwanie to zostało pokonane. Dla celów porównawczych umiejętności i postępów technologicznych zastosowanych w Cleverbot’cie starszy bot, Alice, został poddany identycznej analizie. Obydwa systemy zostały przetestowane na rozumienie i użycie 16 zagadnień pragmatycznych. Przeprowadzone testy wykazały znaczące różnice w 6 z nich. Otrzymane rezultaty nie uprawniają do wyłonienia zwycięzcy. W efekcie, pytanie o samoświadomość i inteligencję SI bazując na podstawie posługiwania się językiem pozostaje otwartym. To samo ma się z kwestią tego, czy bot rzeczywiście rozumie i używa języka tak jak człowiek, czy też jest to jedynie iluzja i ludzka nadinterpretacja komputacyjnego zachowania bota.

Prezentacja ze spotkania dostępna tutaj (format pdf).

W spotkaniu wzięli udział:

  1. M. Hohol
  2. R. Janusz
  3. P. Polak
  4. P. Urbańczyk
  5. M. Wilkowska