Author Archives: Maria Wilkowska

11. spotkanie.

Structure_Paris_les_HallesSpotkanie inaugurujące nowy cykl po przerwie wakacyjnej odbyło się, wedle tradycji, w Akademii Ignatianum, 17 października b. r. Jego uczestnikami byli:

1. R. Janusz
2. R. Piechowicz
3. P. Polak
4. P. Urbańczyk
5. M. Wilkowska

Referat otwierający wygłosił dr Robert Piechowicz. Wystąpienie poruszało tematykę logiki wypowiedzi i problemów związanych z ich systematyzowaniem. Waga problemu jest o tyle duża, że wypowiedzi ludzkie osadzone są w kontekście, którego nie sposób ignorować przy tworzeniu takowego systemu logicznego. Oznacza to, że nie wystarczająca będzie analiza samych zdań wyciągniętych z kontekstu, w jakim[-ich] zostały wypowiedziane. Z tego względu można oczekiwać, że prawa logiczne odnoszące się do zdań nie znajdą pełnego odzwierciedlenia w przypadku wypowiedzi. W celu nakreślenia szerszego tła dla omawianego problemu został zrekonstruowany oraz poddany krytyce system L-U stworzony przez Athanassiosa Tzuovarasa. Następnie przedstawiono oraz wskazano zasadnicze mankamenty systemu LI autorstwa Marka Tokarza. Ostatecznie pokazane były tezy dedukowalne z formalnego odpowiednika Maksymy Jakości (w sensie Grice’a) oraz zasugerowane braki występujące w tak pomyślanym systemie. Szersze omówienie referatu sporządzone przez samego prelegenta można znaleźć tutaj.

Regularne spotkanie grupy Filozofii w informatyce, planowane jest na dzień 21 listopada.

Na dzień 23 listopada 2013r., natomiast, planowane jest spotkanie gościnne u grupy PhilPhysGroup, która działa przy krakowskiej AGH.  Będzie to czas sporu filozofów z umysłami ścisłymi, który nastąpi podczas referatu prof. Krzysztofa Maślanki. Wykład będzie dotyczy obalenia stuletniej hipotezy Mertensa w teorii liczb przez A.M. Odlyzko i H. te Riele za pomocą komputera.

Reklamy

10. spotkanie.

Ostatnie w tym roku akademickim spotkanie grupy badającej
związki filozofii z informatyką odbyło się tradycyjnie w Akademii Ignatianum, w dniu 13 czerwca 2013 r. Spotkanie to miało o tyle szczególny charakter, że wystąpiło na nim dwóch prelegentów: ks. dr hab. Adam Olszewski oraz dr Mateusz Hohol. Termin kolejnego spotkania przewidywany jest na początek następnego roku akademickiego. W spotkaniu uczestniczyli:

1. R. Janusz
2. R. Piechowicz
3. A. Olszewski
4. P. Polak
5. M. Hohol
6. M. Wilkowska

Referat dr. hab. Adama Olszewskiego dotyczył filozoficznych i logicznych aspektów podmiotu matematycznego. Punktem wyjścia była analiza słynnego aksjomatu myśli (aksjomatu istnienia inteligencji) sformułowanego w 1905 roku przez Davida Hilberta: „Mam zdolność do myślenia rzeczy (o rzeczach) i oznaczania ich z pomocą prostych symboli w tak doskonale określony sposób, że mogę zawsze jednoznacznie rozpoznać je ponownie; moja myśl dokonuje operacji na tych rzeczach z użyciem symbolizmu, zgodnie z dobrze określonymi prawami, i jestem zdolny do introspekcji (Selbstbeobachtung), która pozwala opisać te prawa w sposób zupełny”. Analiza tego niezwykle istotnego dla hilbertowskiej metamatematyki aksjomatu polegała na rozbiciu go na kilka hipotez oraz dyskusji nad każdą z osobna. Prelegent argumentował następnie, że matematyczny widziany może być z trzech konkurencyjnych perspektyw. Tym samym wyróżnił on podmiot platoński, który zdolny jest do kontemplacji całej – istniejącej niezależnie od ludzi – matematyki, podmiot kantowski, będący idealizacją ludzkich zdolności matematycznych (może on np. wykonywać operacje w nieskończonym czasie) oraz podmiot empiryczny, który tożsamy jest de facto z matematykami „z krwi i kości”. Olszewski wykazywał następnie wagę tej systematyzacji podmiotów matematycznych w odniesieniu do różnych zagadnień teoretycznych, takich jak np. teza Churcha (wyjaśnia ona czym są obliczenia). Przy tej okazji prelegent stwierdził, że teza Churcha jest w istocie zdaniem, dotyczącym działania podmiotu matematycznego.

W swojej prelekcji dr Mateusz Hohol analizował zagadnienie podmiotu matematycznego z perspektywy neurokonitywnej. Osią przewodnią było poszukiwanie minimalnej architektury poznawczej dla podmiotu, zdolnego do przyswojenia zdolności matematycznych oraz posługiwania się matematyką. Referat rozpoczął się od krótkiego omówienia aktualnych badań nad poznaniem matematycznym (prowadzonych m.in. przez S. Dehaene’a, G. Lakoffa, R. Nuneza, B. Butterwortha). Hohol zaprezentował następnie ramę teoretyczną poznania matematycznego, określoną jako „3E”. Argumentował on, że poznanie matematyczne jest w pewnej mierze zapisane w mózgu (embrained), ucieleśnione (embodied), a także osadzone w kulturze (embedded). Odnoszą się one kolejno do: wrodzonych i nabywanych we wczesnych etapach ontogenezy zdolności protomatematycznych, takich jak „Zmysł liczby”, zdolności do posługiwania się schematami wyobrażeniowymi i metaforami pojęciowymi, które pozwalają na przenoszenie struktury pojęć konkretnych (odnoszących się do cielesnego doświadczenia podmiotu) na pojęcia abstrakcyjne, a także zdolności oraz tendencji do imitacji (precyzyjnego naśladowania zarówno celu, jak i prowadzących do niego ruchów), dzięki czemu matematyka rozwija się kumulatywnie. W referacie przedstawione zostały hipotezy dotyczące struktur mózgowych (np. dolna kora ciemieniowa) oraz poznawczych (system śledzenia obiektów, system liczb przybliżonych) zaangażowanych w poznanie matematyczne, a także roli neuronów lustrzanych i teorii umysłu (czytania stanów mentalnych innych osób) w kształtowaniu się i przekazywaniu zdolności matematycznych.

Wpis opracowany we współpracy z dr Mateuszem Hoholem.

Przełomowa filozofia umysłu do roku 2045? Projekt Avatar.

science-and-religion-transhumanism-will-merge-man-with-machine-e1344655873687

W swojej powieści „Perfekcyjna niedoskonałość”, J. Dukaj opisuje świat, w którym codziennością są transfery całego osobowego „ja” i świadomości ze śmiertelnego ciała na cyfrowy [nieśmiertelny] nośnik. Nieśmiertelność rozumiana jest tutaj w tym sensie, że wraz ze zużyciem materiałowym nośnika żadnej trudności nie stanowi przekopiowanie „ja” ze starego na nowy, nie rzadko technologicznie lepszy. Praktyka ta pozwala ludziom na nieśmiertelność. Nośnik,  zawierający świadomość, całą nabytą wiedzę, doświadczenie jak i osobowość, umieszczany jest w androidalnym robocie, odwzorowanym na ciele danej osoby.

Wyjątkowo zbliżona idea przyświeca interdyscyplinarnemu projektowi Avatar. W skrócie, całokształt przedsięwzięcia dzieli się na 4 etapy: etap 1, [Avatar A] zakładający stworzenie kopii ciała ludzkiego w postaci robota sterowanego za pomocą BCI [brain computer interface]; etap 2 [Avatar B, Brain B] to działania związane z tworzeniem systemów wspomagających najważniejsze funkcje mózgu oraz jego efektywnym przeszczepianiem do robota; etap 3 [Avatar C, Rebrain] na którym możliwe stanie się przenoszenie ludzkiej osobowości i świadomości poprzez cyfrowe nośniki do sztucznego mózgu w robocie; etap 4 [Avatar D] i ostatni, to plan stworzenia nano-robotów mogących przybierać dowolne kształty. To także avatary-hologramy z przeniesioną ludzką osobowością, nabytym w ciągu życia doświadczeniem, wiedzą, itd.

Kolejny problem, który można by nazwać odwiecznym, to kwestia komunikacji. Tutaj, komunikacji nie tylko człowiek-człowiek czy człowiek-maszyna jako urządzenie zewnętrzne, ale co ciekawsze, jako urządzenie wewnętrzne przy interfejsie człowiek-mózg. Założenia projektu wydają się tym samym sugerować obejście jednego z zagadnień filozofii umysłu i języka, a konkretnie zgłębienia tego co nadawca ma na myśli gdy przekazuje informacje odbiorcy. Nastąpił jego przeskok, pominięcie a punkt ciężkości w projekcie Avatar został postawiony o wiele dalej, tj., na linii człowiek-maszyna. Interesujące w tym kontekście wydaje się również rozpatrywanie człowieka i mózgu jako dwóch odrębnych od siebie elementów. To już nawet nie kartezjański dualizm gdzie mamy do czynienia z dychotomią materialne-niematerialne, ale dychotomią, wydaje się, stricte materialną.

Można zadać sobie także pytanie o powodzenie zadania. Ma ono wielce globalny charakter co może umniejszać jego potencjalnemu sukcesowi. Zwłaszcza, że tendencja do lokalizmu to podejście preferowane o ile nie rekomendowane przy uprawianiu nauki współcześnie [por: projekty małych obiektów robotowych jak np. insekty zamiast całych złożonych systemów jak np. człowiek i projekt Cog].

Zastanawia także filozofia jakiej zamierzają użyć zaangażowani w projekt naukowcy. Innymi słowy, z ich manifestu  można wnioskować, że w planach znajduje się także stworzenie całkiem nowej koncepcji filozoficznej dotyczącej aktualnie zgłębianych problemów przez chociażby filozofię umysłu i kognitywistykę. Wątpliwością napawa końcowy termin prac wyznaczony na rok 2045. Na ile uprawnione jest sądzenie, że dysponując najnowszymi technologiami,  do których nie mieli dostępu starożytni myśliciele, uda się rozwikłać problemy które zauważyli już oni?

Konsekwencją bodaj najważniejszą może być zredukowanie człowieka do cyfrowego nośnika. Jak wynika z planów grupy jest to cel celów podjętych działań ku nieśmiertelności. Czy aby uda się odwzorować całe jestestwo ludzkie za pomocą takiego środka? Czy podejście redukcjonistyczne jest w takim razie kluczem do stworzenia sztucznej inteligencji?

Niezmierną ciekawość budzą potencjalne efekty działań grupy badawczej oraz filozoficzne konsekwencje z nich wypływające. Zdrowy rozsądek podpowiada, że ogromnie trudno będzie zrealizować cele jakie postawili sobie badacze w tym projekcie. Niemniej, sytuacja w której udaje się uzyskać nieoczekiwane czy wręcz niezamierzone rezultaty przy podobnie ambitnych planach badań tak szeroko zakrojonych ma miejsce już nie tak rzadko by była nieprawdopodobna.

Krótka refleksja nad dronami.

pop up bee-robotSłużą do patrolowania niespokojnych obszarów, w rolnictwie, geologii, mediach, służbach ratowniczych. Wyręczają człowieka gdy potrzeba poruszać się po niedostępnych lub niebezpiecznych terenach. Mogą pomagać w łapaniu łamiących przepisy ruchu drogowego. Są zdolne do zbierania tak ogromnej ilości danych, że potrzeba je filtrować by co najwyżej zasugerować nadzorującemu je człowiekowi, potencjalnie interesujący go materiał. W efekcie, przez kamery, w które są wyposażone, nagrywane są przypadkowe osoby. Niewielkie rozmiary niektórych z nich umożliwiają bezgłośne i niezauważalne dotarcie do niemal każdej lokacji, a dodatkowe zaopatrzenie w Wi-Fi, na przesyłanie zgromadzonych danych wizualnych, dźwiękowych, zapachowych oraz innych. Sprawia to, że bez trudu mogą stać się wszechobecne.

Podana specyfikacja dronów, o których mowa, czyli zdalnie sterowanych obiektów latających, czyni je pierwszorzędnymi narzędziami do szeroko pojętych działań wywiadowczych. Za ich zaletę uważa się również pomoc przy działaniach wojennych. Zwłaszcza jeśli idzie o tzw. Unmanned Aerial Vehicles [UAV], w opinii ekspertów, będą one stanowiły niebagatelną przewagę podczas konfliktów zbrojnych.  UAV ma być wyposażony m. in. w odpowiedni moduł do rozpoznawania twarzy, dzięki któremu będzie zdolny do identyfikacji wrogiej jednostki. W tym miejscu wypada zadać pytanie, co to właściwie znaczy „wroga jednostka”? Jak dokonać tego, by dron mógł odróżnić walczących od poddających się?

Środowiska sprzymierzeńcze utrzymują również, że możliwym jest uposażenie latającego robota w odpowiednie oprogramowanie, które byłoby odpowiednikiem zasad moralnego postępowania czy etycznych, takich samych jakimi posługują się ludzie, lecz w formie algorytmów. Stanowi to odpowiedź na zawołania zamieszone w traktacie „Unmanned Aircraft Systems Flight Plan 2009-2047”. Czy jednak algorytm jest w stanie uchwycić pewne subtelne lub sporne kwestie nad którymi nie jeden zespół etyków i filozofów łamie sobie głowy? Poza tym, opisywany system do kwestii etycznych będzie jeden dla wszystkich dronów w danej nacji. Oznacza to kontekstualizację, o ile nie relatywizację zasad etycznych, zachowań ludzkich i wielu innych reguł, którymi posługują się cywile na co dzień oraz żołnierze na wojnie. Dodatkowo, chociaż nie jest on zazwyczaj uznawany za preferowane podejście, sytuacjonizm może odegrać nietrywialną rolę jeśli rozważać konkretne, a co ważniejsze, bezprecedensowe, sytuacje z którymi będzie się musiał zmierzyć dron.

Docelowo w swoim sposobie działania, drony mają zostać całkowicie autonomicznymi jednostkami namierzającymi, identyfikującymi oraz annihilującymi cele. Specjaliści wspominają tu o pomocy UAV przy neutralizacji podejrzanych np. o działalność terrorystyczną. Po pierwsze, pojawia się trudność zdefiniowania tego kto to jest i jak go określić, a więc podstawowy problem znaczenia. Po drugie, w omawianym przypadku niemożliwym staje się upewnienie się, że namierzona jednostka faktycznie jest winna czy też może podejrzenia wobec niej są chybione. Oprogramowanie dronów, którym będą rozsądzały kogo zabić a kogo nie u swojej podstawy będzie się sprowadzało do 0 i 1. Czy i jeśli tak, to w  jakim stopniu cyfry te korelują ze światem rzeczywistym? Ponadto, software będzie odzwierciedleniem poglądów i przekonań jego twórców. A zatem, zachodzi obawa, że nie będzie uwzględniał różnic międzykulturowych co może doprowadzić do negatywnych skutków. Co więcej, zabijanie ludzi przez roboty latające budzi niepokój o antyseptyczność wojny. Czy aby wprowadzenie obiektów takich jak roboty nie zdejmie odpowiedzialności z człowieka wydającego komendę „kill and destroy”? Co w przypadku gdyby zaawansowanie robotów doprowadziło do momentu, w którym nadany im zostanie status osoby? Czy będą wówczas podlegały prawu i sądom? Z powyższym wiąże się także niebezpieczeństwo deprecjacji wartości życia; decyzja o wydaniu polecenia charakteryzuje się dystansem fizycznym i odseparowaniem emocjonalnym.

Do opisywanych aspektów można dodać również potencjalne problemy przejęcia dronów przez wroga i zainfekowanie systemu.

Slyszy się wiele o kolejnych postępach w zakresie dronów wojennych. Znacząco mniej, jednak, słychać głosy krytycznej uwagi. Chcemy więcej i szybciej, ale takie podejście może doprowadzić do zbyt wczesnego wykorzystania czegoś, do czego nie jesteśmy sami wewnętrznie przygotowani ani nie wiemy jak do końca się z tym obchodzić. Konkludując, proponuję zmienić tok myślenia; zamiast inwestować w drony wojenne warto by rozwinąć alternatywne, mniej drastyczne metody rozwiązywania konfliktów.

7. spotkanie

W dniu 28 lutego, w gościnnych murach Ignatianum odbyło się 7. z kolei spotkanie grupy badającej wątki filozoficzne w

Fontenelle.Lebens-beschreibung.1720.leibniz calculatorinformatyce. Było ono podzielone na 2 części; w pierwszej, Maria Wilkowska zaznajomiła obecnych z projektem CyberEmotions. Po krótkim nakreśleniu tematu rozpoczęła się dyskusja nt. filozoficznych implikacji takiego przedsięwzięcia, ze szczególną uwagą zwróconą na zagadnienie qualiów. Część druga została poświęcona  głównej prezentacji, którą przygotował Sławomir Wilk. Jej przedmiotem były Leibnizowskie podstawy komputerów.

Podczas wystąpienia prelegent wskazał elementy informatycznych podwalin, które można odnaleźć w ideach Leibniza. Zaskakujące, ale okazuje się, że już w poglądach tak wczesnych myślicieli i filozofów jak Gotfried Wilhelm Leibniz daje się zauważyć pewne zaczątki myślenia charakterystycznego dla współczesnego poglądu komputacjonistycznego i informatycznego, takie jak np. obliczalność czy kod binarny. W swoich próbach, filozof ten, podjął się stworzenia tzw. lingua characteristica czyli obiektywnego języka, dzięki któremu dowodzenie prawdziwości lub fałszu dowolnego zdania w ramach systemu byłoby możliwe. Udane stworzenie takiego języka miało być równoznaczne z tym, że świat, umysł czy istoty ludzkie są w pewnym sensie obliczalne. Taki język miałby mieć binarną postać. Związany z nim program Calculemus nosi cechy charakterystyczne dla rachunku symbolicznego. Leibniz był również jednym z pierwszych konstruktorów maszyn liczących, które operowały na liczbach binarnych. Z tego względu można je uznać za prymitywne komputery. Z początku, Leibniz przejawiał poglądy podobne do A. Turinga, a dokładniej te, tyczące się przekonania o obliczalności świata, a ogólnie pojmowana „maszyna licząca” była rozpatrywana w kontekście ludzkiego ciała. Rozumiany w ten sposób tzw. „Leibniz I” byłby również zwolennikiem dzisiejszej silnej AI. Z biegiem lat, jednakże, wizje te uległy zmianie. Odtąd „maszyna” widziana była już tylko jako automat, przekonanie o silnej AI uległo znacznemu osłabieniu, a jego miejsce zajęła słynna metafora mózgu jako młyna. Poglądy tzw. „Leibniza II” są zbieżne z tymi, jakie przejawiał J. von Neumann.

Po zakończeniu referatu odbyła się dyskusja, której tematem przewodnim było pytanie o metafizykę Leibniza a prawo do ekstrapolowania jej na grunt informatyczny.

Na spotkaniu obecni byli:

P. Polak

R. Janusz

S. Wilk

P. Domider

A. Sarosiek

M. Wilkowska

Kolejne zebranie przewidziane jest na koniec bieżącego miesiąca.

Problem qualiów rozwiązany?

Jeszcze do niedawna tekstowa komunikacja przez internet odbywała się bez użycia języka niewerbalnego. Podczas rozmowy face-to-face aż 87% informacji przekazywqualiaanych jest kanałem niewerbalnym, tj. dzięki użyciu szeroko pojętego języka ciała, gestykulacji czy też mimiki. To oczywiście tylko niektóre z jej elementów. Wymienione czynniki pozwalają na nadanie komunikatowi wydzwięku emocjonalnego, a co za tym idzie, gwarantuje on udany przekaz i jego interpretację. To właśnie przez te niedosłowne, często podświadomie odbierane sygnały odbiorca może efektywnie rekonstruować przekaz nadawcy.

Międzynarodowy projekt Cyberemotions [http://www.cyberemotions.eu/] jest, wydaje się, pierwszą (a na pewno jedną z nielicznych) próbą by zmienić status quo. Naukowcy z różnych dziedzin takich jak np. informatyka czy psychologia stworzyli program, który pozwala na wykrywanie i rozpoznawanie emocji online. Wysiłek ten, jakkolwiek ambitny, nie jest całkowicie wolny od uchybień. Można sobie bowiem zadać kardynalne pytanie po co nam taki program jeśli już posiadamy inne, alternatywne środki przekazu zabarwienia emocjonalnego wiadomości jakimi są chociażby emotikony czy tzw. kreatywne użycie klawiatury [nowatorskie zastosowanie znaków interpunkcyjnych, itp.]. Kolejnym wątpliwym aspektem jest kwestia ironii czy też codziennej niedosłowności przekazu, o użyciu przenośnym nie wspominając. Program Cyberemotions [dotowany przez Unię Europejską] ma, m. in., za zadanie przeszukiwać sieć pod kątem negatywnych uwag i opinii na temat wymienionego subsydariusza. Jednakże, działanie o takim charakterze może mieć cel dość odbiegający od oficjalnego, tj. naruszenie i powolne unicestwienie egalitaryzmu [tj. głównej maksymy internetowej] oraz wolności słowa.  Ponadto, twórcy wydają się nie zauważać (czy też może celowo ignorują) 40 lat, które poświęcono na tworzenie sztucznych systemów dialogowych (tzw. chatbot’ów). Współcześnie tylko niewielka grupa badaczy nadal zajmuje się tym zagadnieniem. Powodem było wiele nieudanych prób na przestrzeni prawie półwiecza, które wykazywały, że realizacją silnej AI miałaby zakończyć się sukcesem. Cyberemotions to software bazujący na korpusie tekstowym; u podstaw jego działania leży więc jego analiza par excellance.

CYBEREMOTIONS is a research domain that studies observable and analyzable phenomena related to any means of communication provided by the Internet – such as text, sound, visual (…) [moje podkreślenie]

A particular emphasis lies on the automatic analysis of online messages using methodologies such as sentiment analysis to provide access to emotional cues in large samples. [http://www.cyberemotions.eu/index.html]

Do powyższych uwag można dołączyć te tyczące się limitacji samych maszyn czy języków programowania używanych do emulacji emocji. Tylko dlatego, że dysponujemy najszybszymi, być może już niedługo kwantowymi komputerami, nie oznacza, że są one właściwym medium do symulacji czegoś tak nieuchwytnego i złożonego jak emocje. Dlaczego mielibyśmy sądzić, że akurat teraz i akurat na komputerach powiedzie się to przedsięwzięcie? Czy to aby nie ukryty, choć dawno obalony i skrytykowany funkcjonalizm i redukcjonizm?

Na uwagę zasługuje również określnik użyty przez twórców na stronie. W przytoczonym cytacie chodzi o przymiotnik collective:

The project focuses on the role of collective emotions in creating, forming and breaking-up e-communities. [http://www.cyberemotions.eu/index.html][moje podkreślenie]

Pochodzący z angielskiego, leksem collective można tłumaczyć jako zbiorowy czy też „kolektywny”. Oznaczałoby to, że w kontekście badań nad cyberemocjami coś tak indywidualnego i niepowtarzalnego jak egzemplifikacja emocji zostało zgeneralizowane i tym samym pozbawione swojej niepowtarzalności. Niemniej jednak, czy emocje można rozpatrywać w sposób zunifikowany i zgeneralizowany? Dla projektu jako całości, podobny błąd metodologiczny, który zostaje popełniony na etapie preliminariów może w znacznym stopniu zaważyć na wiarygodności rezultatów. Co więcej, należy zachować dystans również co do efektu końcowego, który może przedstawiać pewnego rodzaju hybrydę danej emocji niż jej wiarygodną reprezentację.

Powyższe uwagi stanowią rozpoczęcie do dyskusji nad projektem jak i samego zagadnienia zdigitalizowanych emocji; już pobieżna lektura zagadnienia dostarcza materiału na znacznie dokładniejszą analizę. Tym bardziej zasługuje ono na bliższą uwagę. Na nieszczęście wykonawców historia nauki pokazuje, że nawet najbardziej śmiały i dobrze rokujący projekt gdy pozbawiony konstruktywnej refleksji krytycznej może utknąć w martwym punkcie póki jakiś filozof nie skłoni się by go z powrotem skierować na obiecujące tory dzięki celnym uwagom krytycznym.

6. spotkanie

W dniu 10 stycznia 2013r. miało miejsce kolejne już spotkanie grupy badawczej „Filozofia w Informatyce”. Odbyło się ono tradycyjnie już w gościnnych progach Akademii Ignatianum w Krakowie. Referentem spotkania był ks. dr hab. Adam Olszewski. Zaprezentował on referat pt. Studium przypadku: Church.

Celem referatu było zaprezentowanie związków tezy Churcha z pewną wersją platonizmu matematycznego. W części początkowej zostały omówione podstawowe pojęcia tyczące się do Tezy Churcha, tj. obliczalność, podstawowe przesłanki tezy oraz koncepcja funkcji rekurencyjnej. Podczas omawiania tej ostatniej rozwinęła się dyskusja o tzw. f-Non-Turing czyli o tym, czy funkcja f jest obliczalna przez Maszynę Turinga (MT). Pomimo tego, że trudno jest sobie wyobrazić możliwość istnienia matematycznego dowodu na obliczalność w sensie MT, z przedstawionych przykładów wynika, że istnieją funkcje, które nie są obliczalne przez MT, ale które są obliczalne efektywnie (Computable). Z filozoficznego punktu widzenia, można byłoby zadać sobie pytanie o prawdziwość/fałszywość samej tezy. Nie jest to jednak wykonalne przez wzgląd na zbyt małą liczbę przesłanek tezy oraz fakt, że ma ona według prelegenta charakter empiryczny. W referacie prowadzono również polemikę z krytycznymi uwagami Urbaniaka czy Piccininiego.

Wygłoszony przez ks. dr hab. A. Olszewskiego referat obejmuje bliską mu tematykę – stanowił rozwinięcie pewnych problemów poruszonych w jego rozprawie habilitacyjnej poświęconej Tezie Church’a.

Materiały: Studium [plik PDF]

Na spotkaniu obecni byli:

  1. K. Czarnecki
  2. M. Hohol
  3. R. Janusz
  4. A. Olszewski
  5. P. Polak
  6. P. Urbańczyk
  7. S. Wilk
  8. M. Wilkowska

Spotkanie kolejne zostało zapowiedziane na 14 lutego 2013r.

3. spotkanie

W dniu 28 czerwca br. odbyło się kolejne spotkanie grupy Filozofii w Informatyce, które miało miejsce w Ignatianum. Plan spotkania przedstawiał się następująco:

1. Omówienie propozycji działań związanych z obchodami Roku Turinga.

2. Referat M. Wilkowskiej „Pragmatyczna analiza rozumienia i użycia języka przez systemy sztucznej inteligencji – na przykładzie języka chatbot’ów” oraz jego dyskusja.

Streszczenie:

Zagadnienia z dziedziny artificial intelligence (pol. sztuczna inteligencja (SI)), a zwłaszcza pytania o inteligencję i samoświadomość maszyn, budzą dziś wiele zainteresowania. Tematyce SI atrakcyjności dodaje wynik zeszłorocznego Testu Turing’a (TT), w którym po raz pierwszy człowiek został pokonany przez system dialogowy SI. Bot o którym mowa to Cleverbot. W założeniu TT zwycięstwo bot’a oznacza, że posiada on samoświadomość, co ocenia się na podstawie jego umiejętności posługiwania się językiem naturalnym, będącym na poziomie nieodróżnialnym od człowieka. Przedstawiona w referacie analiza miała na celu sprawdzić czy zwycięski bot będzie potrafił zrozumieć znaczenia pragmatyczne czyli język użyty w kontekście. Jak dotąd problem kontekstu nie został jeszcze rozwiązany, tj. przełożony na język binarny. Wygrana Cleverbot’a wydaje się więc inspirować do badania jego kompetencji językowych pod kątem pragmatycznym, może ona oznaczać, że w jakiś sposób wyzwanie to zostało pokonane. Dla celów porównawczych umiejętności i postępów technologicznych zastosowanych w Cleverbot’cie starszy bot, Alice, został poddany identycznej analizie. Obydwa systemy zostały przetestowane na rozumienie i użycie 16 zagadnień pragmatycznych. Przeprowadzone testy wykazały znaczące różnice w 6 z nich. Otrzymane rezultaty nie uprawniają do wyłonienia zwycięzcy. W efekcie, pytanie o samoświadomość i inteligencję SI bazując na podstawie posługiwania się językiem pozostaje otwartym. To samo ma się z kwestią tego, czy bot rzeczywiście rozumie i używa języka tak jak człowiek, czy też jest to jedynie iluzja i ludzka nadinterpretacja komputacyjnego zachowania bota.

Prezentacja ze spotkania dostępna tutaj (format pdf).

W spotkaniu wzięli udział:

  1. M. Hohol
  2. R. Janusz
  3. P. Polak
  4. P. Urbańczyk
  5. M. Wilkowska