Category Archives: sztuczna inteligencja

15. spotkanie – Koncepcja nadejścia osobliwości technologicznej według Raymonda Kurzweila

Kolejne spotkanie grupy badającej recepcje założeń filozoficznych w informatyce zostało poświęcone futurystycznej teorii postępu technicznego. Sławomir Wilk w swoim refereracie „Koncepcja nadejścia osobliwości technologicznej według Raymonda Kurzweila”, przybliżył uczestnikom wizję  jednego z największych entuzjastów transhumanizmu.

Ray Kurzweil twierdzi, że zarówno ewolucja biologiczna i technologiczna podlegają takim samym prawom. Korzystając z uogólnionego prawa Moore’a przekonuje, iż każda kolejna zmiana zachodzi  szybciej. W najbliższej dekadzie pojawi się tyle innowacji, ile miało miejsce w ostatnim stuleciu. Ostatecznie postęp techniczny musi doprowadzi do pojawienia się technologicznej osobliwości. W hipotetycznym momencie rozwój sztucznej inteligencji dojdzie do punktu, w którym przewyższy ludzką inteligencję, radykalnie zmieniając cywilizację i ludzką naturę. W wyniku tych zmian, coraz bardziej zdominowany przez niebiologiczne składniki, człowiek zyska nieśmiertelność. Kurzweil zyskuje zarówno rzesze zwolenników i przeciwników. Ci pierwsi z niecierpliwością wypatrują nadejścia osobliwości. Krytycy wskazują na aspekt mistyczny tej idei oraz na to, że przepowiednie dotyczące bliskiej przyszłości opierają się na niepełnej i niewystarczającej wiedzy.

Podczas dyskusji uczestnicy zastanawiali się jakie skutki dla ludzkości przyniosłaby taka rewolucja i jaki byłby, w jej wyniku, wymiar człowieczeństwa. Rozpatrywano również adekwatność prognozowanych przez Kurzweila ram czasowych.

W spotkaniu wzięli udział:

R. Janusz
P. Polak
M. Wilkowska
P. Urbańczyk
S. Wilk
P. Gumułka
J. Bugajski
A. Sarosiek

Reklamy

12. spotkanie

21 listopada w Akademii Ignatianum odbyło się kolejne spotkanie human-brain-projectgrupy. W  jego trakcie Anna Sarosiek wygłosiła referat „Human Brain Project – neuromorficzny system inteligentny?” Wywołał on ciekawą dyskusję, dotyczącą założeń twórców projektu i skutków, które wyniknąć mogą po jego powstaniu.

W spotkaniu uczestniczyli:

R. Janusz

P. Polak

R. Piechowicz

M. Wilkowska

P. Urbańczyk

S. Wilk

P. Gumułka

J. Bugajski

A. Sarosiek

Human Brain Project to finansowane przez Unię Europejską prace nad stworzeniem działającego modelu ludzkiego mózgu. Badania są koordynowane przez Henry’ego Markrama, w Politechnice w Lozannie (EPFL), w Szwajcarii. Ponadto uczestniczy w nich 135 innych grup badawczych z całej Europy.

Główną ideą twórców projektu jest mapowanie mózgu, niemożliwe z przyczyn etycznych lub technicznych przy pomocy metod eksperymentalnych. Badacze mają nadzieję odkryć szczegółowe mechanizmy działające na każdym poziomie (geny, komórki, układy) i ostatecznie prowadzące do poznania i zachowania. Liczą również na to, że w dłuższej perspektywie, model pozwoli na symulowanie chorób psychicznych, co ma doprowadzić do rozwoju badań medycznych, projektowania zabiegów i zindywidualizowanego leczenia, a tym samym do zmniejszenia ludzkiego cierpienia związanego z chorobą i kosztami ponoszonymi w jej trakcie. Istotnym celem projektu jest powstanie nowych neuromorficznych metod obliczeniowych, które mogłyby doprowadzić do zmiany paradygmatu w informatyce i rozpocząć nową erę badań nad systemami inteligentnymi.

Projekt budzi wiele dyskusji i kontrowersji. Najważniejsze z nich dotyczą źródeł mocy obliczeniowej, którymi obecnie nie dysponujemy. Pojawiają się również pytania, które zmuszają nas do zastanowienia się, czy wyizolowany od ciała i środowiska model będzie mógł właściwie funkcjonować.

Przełomowa filozofia umysłu do roku 2045? Projekt Avatar.

science-and-religion-transhumanism-will-merge-man-with-machine-e1344655873687

W swojej powieści „Perfekcyjna niedoskonałość”, J. Dukaj opisuje świat, w którym codziennością są transfery całego osobowego „ja” i świadomości ze śmiertelnego ciała na cyfrowy [nieśmiertelny] nośnik. Nieśmiertelność rozumiana jest tutaj w tym sensie, że wraz ze zużyciem materiałowym nośnika żadnej trudności nie stanowi przekopiowanie „ja” ze starego na nowy, nie rzadko technologicznie lepszy. Praktyka ta pozwala ludziom na nieśmiertelność. Nośnik,  zawierający świadomość, całą nabytą wiedzę, doświadczenie jak i osobowość, umieszczany jest w androidalnym robocie, odwzorowanym na ciele danej osoby.

Wyjątkowo zbliżona idea przyświeca interdyscyplinarnemu projektowi Avatar. W skrócie, całokształt przedsięwzięcia dzieli się na 4 etapy: etap 1, [Avatar A] zakładający stworzenie kopii ciała ludzkiego w postaci robota sterowanego za pomocą BCI [brain computer interface]; etap 2 [Avatar B, Brain B] to działania związane z tworzeniem systemów wspomagających najważniejsze funkcje mózgu oraz jego efektywnym przeszczepianiem do robota; etap 3 [Avatar C, Rebrain] na którym możliwe stanie się przenoszenie ludzkiej osobowości i świadomości poprzez cyfrowe nośniki do sztucznego mózgu w robocie; etap 4 [Avatar D] i ostatni, to plan stworzenia nano-robotów mogących przybierać dowolne kształty. To także avatary-hologramy z przeniesioną ludzką osobowością, nabytym w ciągu życia doświadczeniem, wiedzą, itd.

Kolejny problem, który można by nazwać odwiecznym, to kwestia komunikacji. Tutaj, komunikacji nie tylko człowiek-człowiek czy człowiek-maszyna jako urządzenie zewnętrzne, ale co ciekawsze, jako urządzenie wewnętrzne przy interfejsie człowiek-mózg. Założenia projektu wydają się tym samym sugerować obejście jednego z zagadnień filozofii umysłu i języka, a konkretnie zgłębienia tego co nadawca ma na myśli gdy przekazuje informacje odbiorcy. Nastąpił jego przeskok, pominięcie a punkt ciężkości w projekcie Avatar został postawiony o wiele dalej, tj., na linii człowiek-maszyna. Interesujące w tym kontekście wydaje się również rozpatrywanie człowieka i mózgu jako dwóch odrębnych od siebie elementów. To już nawet nie kartezjański dualizm gdzie mamy do czynienia z dychotomią materialne-niematerialne, ale dychotomią, wydaje się, stricte materialną.

Można zadać sobie także pytanie o powodzenie zadania. Ma ono wielce globalny charakter co może umniejszać jego potencjalnemu sukcesowi. Zwłaszcza, że tendencja do lokalizmu to podejście preferowane o ile nie rekomendowane przy uprawianiu nauki współcześnie [por: projekty małych obiektów robotowych jak np. insekty zamiast całych złożonych systemów jak np. człowiek i projekt Cog].

Zastanawia także filozofia jakiej zamierzają użyć zaangażowani w projekt naukowcy. Innymi słowy, z ich manifestu  można wnioskować, że w planach znajduje się także stworzenie całkiem nowej koncepcji filozoficznej dotyczącej aktualnie zgłębianych problemów przez chociażby filozofię umysłu i kognitywistykę. Wątpliwością napawa końcowy termin prac wyznaczony na rok 2045. Na ile uprawnione jest sądzenie, że dysponując najnowszymi technologiami,  do których nie mieli dostępu starożytni myśliciele, uda się rozwikłać problemy które zauważyli już oni?

Konsekwencją bodaj najważniejszą może być zredukowanie człowieka do cyfrowego nośnika. Jak wynika z planów grupy jest to cel celów podjętych działań ku nieśmiertelności. Czy aby uda się odwzorować całe jestestwo ludzkie za pomocą takiego środka? Czy podejście redukcjonistyczne jest w takim razie kluczem do stworzenia sztucznej inteligencji?

Niezmierną ciekawość budzą potencjalne efekty działań grupy badawczej oraz filozoficzne konsekwencje z nich wypływające. Zdrowy rozsądek podpowiada, że ogromnie trudno będzie zrealizować cele jakie postawili sobie badacze w tym projekcie. Niemniej, sytuacja w której udaje się uzyskać nieoczekiwane czy wręcz niezamierzone rezultaty przy podobnie ambitnych planach badań tak szeroko zakrojonych ma miejsce już nie tak rzadko by była nieprawdopodobna.

8. spotkanie.

Dnia 11 kwietnia w Akademii  Ignatianum odbyło się kolejne spotkanie grupy badawczej „Filozofia w informatyce”. Było ono poświęcone aplikacjom paradygmatu ucieleśnionego umysłu w pracach nad sztuczna inteligencją. W pierwszej części spotkania Anna Sarosiek przedstawiła swój referat, który prezentował próby zastosowania założeń embodied mind w pracach nad konstruowaniem sztucznej inteligencji, w szczególności na polu robotyki.

O rozwoju prac nad sztuczną inteligencją nie możemy mówić bez rozróżnienia na dwa okresy. Pierwszy z nich, komputacjonizm i nierozłącznie z nim związany funkcjonalizm, zakładały, że ludzki umysł i  mózg mogą być postrzegane jako metafora komputera. Umysł miałby tu pełnić funkcję software’u realizowaną przez mózg, będący hardwarem. Niestety pierwsza generacja badaczy SI, mimo znaczących sukcesów, nie była w pełni usatysfakcjonowana wynikami swoich prac. Komputery szybko nauczyły się grać w szachy i rozwiązywać skomplikowane zadania matematyczne, nie radziły sobie jednak z czynnościami prostymi dla kilkuletniego dziecka, takimi jak rozpoznawanie przedmiotów lub efektywne komunikowanie się. Kolejna generacja specjalistów rozpoczęła poszukiwania nowych rozwiązań. Oparli się na hipotezach M. Merlau-Ponty, mówiących, że umysł człowieka może właściwie funkcjonować dzięki realnemu kontaktowi ze środowiskiem oraz na późniejszym teoriach Lakoffa i Johnsona, które kładą nacisk na metaforyczność języka, będącą wynikiem orientacji fizycznego ciała w świecie.

Tak zaczęły powstawać pierwsze projekty. Najbardziej spektakularnym z nich był prawdopodobnie projekt Roodneya Brooksa – Cog, prowadzony w MIT w Massachusetts. Ten humanoidalny robot miał się uczyć poprzez interakcje z ludźmi w rzeczywistym środowisku. Maszyna została wyposażona w czujniki, silniki, kamery i mikrofony, mające jej zapewnić możliwość nabywania umiejętności podobnych do tych, które w trakcie swojej nauki zdobywa człowiek. Ponadto wyposażenie to miało mu zapewnić możliwość obserwacji i kontroli własnego ruchu. Nauka Coga opierała się na treningach z nauczycielami i przypominać miała przekazywanie wiedzy i umiejętności małemu dziecku.

Na Uniwersytecie Osaka Minoru Asada trwają prace nad CB2, robotem posiadającym biomimetyczne ciało, kryjące dużą liczbę sensorów i pneumatyczne mięśnie. Jest to robot-dziecko, które uczy się poruszać i rozwijać społeczne umiejętności poprzez naśladowanie opiekunów. Jego projektantom  zależy również na tym, by CB2 potrafił naśladować ludzkie emocje. Kolejnym krokiem w pracach nad CB2, ma być przyswojenie przez robota słownictwa i umiejętności poznawczych, typowych dla trzyletniego dziecka.

Inna ciekawą a zarazem ważną aplikacją paradygmatu ucieleśnionego umysłu są prace prowadzone przez Maję Matarić z USC w Kalifornii. Matarić skupia się przede wszystkim na niesieniu pomocy ludziom chorym, zagrożonym wykluczeniem społecznym. W ramach jej projektu powstają maszyny, do których zadań należą towarzyszenie i komunikowanie się z użytkownikiem w zmiennym i złożonym środowisku. Roboty maja również diagnozować i przewidywać szkody. Do ich prac należy pomoc w rehabilitacji, rekonwalescencji i zdobywaniu (lub odzyskiwaniu) umiejętności. Szczególny nacisk w badaniach jest położony na rolę emocji w procesach oceny i wyborze zachowań.

W referacie nie zostały również pominięte alternatywne badania trwające na polu artificial life. Mowa tu oczywiście o biotach i biolandii. Ten sposób modelowania sztucznego życia w sztucznym świecie daje duży wgląd w podstawowe procesy odgrywające znaczącą rolę w kształtowaniu się zachowań organizmu w swoim środowisku. Bioty, które posiadają odpowiedniki mózgu i zmysłowych receptorów uczą się i nabywają niespodziewanie różne od innych im podobnych organizmów umiejętności.

Po zakończeniu prezentacji dotychczasowych osiągnięć w badaniach nad ucieleśnioną sztuczną inteligencją wywiązała się dyskusja. Rozmawiano o perspektywach badań i możliwościach, jakie daje im współczesna nauka. Zastanawiano się nad założeniami paradygmatu ucieleśnionego umysłu, w tym nad rolą bodźców fizycznych, emocji i uczuć oraz nad sposobami ich modelowania. W związku z przedstawieniem prac Mai Matarić został również podjęty temat ucieleśnionej komunikacji. Zastanawiano się nad jej znaczeniem i przyczynami, które sprawiły, że stała się niezbędna.

W spotkaniu wzięli udział:

P. Polak

R. Janusz

R. Piechowicz

K. Czarnecki

M. Wilkowska

A. Sarosiek

Kolejne spotkanie grupy zaplanowano na 09 maja 2013 r.

Krótka refleksja nad dronami.

pop up bee-robotSłużą do patrolowania niespokojnych obszarów, w rolnictwie, geologii, mediach, służbach ratowniczych. Wyręczają człowieka gdy potrzeba poruszać się po niedostępnych lub niebezpiecznych terenach. Mogą pomagać w łapaniu łamiących przepisy ruchu drogowego. Są zdolne do zbierania tak ogromnej ilości danych, że potrzeba je filtrować by co najwyżej zasugerować nadzorującemu je człowiekowi, potencjalnie interesujący go materiał. W efekcie, przez kamery, w które są wyposażone, nagrywane są przypadkowe osoby. Niewielkie rozmiary niektórych z nich umożliwiają bezgłośne i niezauważalne dotarcie do niemal każdej lokacji, a dodatkowe zaopatrzenie w Wi-Fi, na przesyłanie zgromadzonych danych wizualnych, dźwiękowych, zapachowych oraz innych. Sprawia to, że bez trudu mogą stać się wszechobecne.

Podana specyfikacja dronów, o których mowa, czyli zdalnie sterowanych obiektów latających, czyni je pierwszorzędnymi narzędziami do szeroko pojętych działań wywiadowczych. Za ich zaletę uważa się również pomoc przy działaniach wojennych. Zwłaszcza jeśli idzie o tzw. Unmanned Aerial Vehicles [UAV], w opinii ekspertów, będą one stanowiły niebagatelną przewagę podczas konfliktów zbrojnych.  UAV ma być wyposażony m. in. w odpowiedni moduł do rozpoznawania twarzy, dzięki któremu będzie zdolny do identyfikacji wrogiej jednostki. W tym miejscu wypada zadać pytanie, co to właściwie znaczy „wroga jednostka”? Jak dokonać tego, by dron mógł odróżnić walczących od poddających się?

Środowiska sprzymierzeńcze utrzymują również, że możliwym jest uposażenie latającego robota w odpowiednie oprogramowanie, które byłoby odpowiednikiem zasad moralnego postępowania czy etycznych, takich samych jakimi posługują się ludzie, lecz w formie algorytmów. Stanowi to odpowiedź na zawołania zamieszone w traktacie „Unmanned Aircraft Systems Flight Plan 2009-2047”. Czy jednak algorytm jest w stanie uchwycić pewne subtelne lub sporne kwestie nad którymi nie jeden zespół etyków i filozofów łamie sobie głowy? Poza tym, opisywany system do kwestii etycznych będzie jeden dla wszystkich dronów w danej nacji. Oznacza to kontekstualizację, o ile nie relatywizację zasad etycznych, zachowań ludzkich i wielu innych reguł, którymi posługują się cywile na co dzień oraz żołnierze na wojnie. Dodatkowo, chociaż nie jest on zazwyczaj uznawany za preferowane podejście, sytuacjonizm może odegrać nietrywialną rolę jeśli rozważać konkretne, a co ważniejsze, bezprecedensowe, sytuacje z którymi będzie się musiał zmierzyć dron.

Docelowo w swoim sposobie działania, drony mają zostać całkowicie autonomicznymi jednostkami namierzającymi, identyfikującymi oraz annihilującymi cele. Specjaliści wspominają tu o pomocy UAV przy neutralizacji podejrzanych np. o działalność terrorystyczną. Po pierwsze, pojawia się trudność zdefiniowania tego kto to jest i jak go określić, a więc podstawowy problem znaczenia. Po drugie, w omawianym przypadku niemożliwym staje się upewnienie się, że namierzona jednostka faktycznie jest winna czy też może podejrzenia wobec niej są chybione. Oprogramowanie dronów, którym będą rozsądzały kogo zabić a kogo nie u swojej podstawy będzie się sprowadzało do 0 i 1. Czy i jeśli tak, to w  jakim stopniu cyfry te korelują ze światem rzeczywistym? Ponadto, software będzie odzwierciedleniem poglądów i przekonań jego twórców. A zatem, zachodzi obawa, że nie będzie uwzględniał różnic międzykulturowych co może doprowadzić do negatywnych skutków. Co więcej, zabijanie ludzi przez roboty latające budzi niepokój o antyseptyczność wojny. Czy aby wprowadzenie obiektów takich jak roboty nie zdejmie odpowiedzialności z człowieka wydającego komendę „kill and destroy”? Co w przypadku gdyby zaawansowanie robotów doprowadziło do momentu, w którym nadany im zostanie status osoby? Czy będą wówczas podlegały prawu i sądom? Z powyższym wiąże się także niebezpieczeństwo deprecjacji wartości życia; decyzja o wydaniu polecenia charakteryzuje się dystansem fizycznym i odseparowaniem emocjonalnym.

Do opisywanych aspektów można dodać również potencjalne problemy przejęcia dronów przez wroga i zainfekowanie systemu.

Slyszy się wiele o kolejnych postępach w zakresie dronów wojennych. Znacząco mniej, jednak, słychać głosy krytycznej uwagi. Chcemy więcej i szybciej, ale takie podejście może doprowadzić do zbyt wczesnego wykorzystania czegoś, do czego nie jesteśmy sami wewnętrznie przygotowani ani nie wiemy jak do końca się z tym obchodzić. Konkludując, proponuję zmienić tok myślenia; zamiast inwestować w drony wojenne warto by rozwinąć alternatywne, mniej drastyczne metody rozwiązywania konfliktów.

Problem qualiów rozwiązany?

Jeszcze do niedawna tekstowa komunikacja przez internet odbywała się bez użycia języka niewerbalnego. Podczas rozmowy face-to-face aż 87% informacji przekazywqualiaanych jest kanałem niewerbalnym, tj. dzięki użyciu szeroko pojętego języka ciała, gestykulacji czy też mimiki. To oczywiście tylko niektóre z jej elementów. Wymienione czynniki pozwalają na nadanie komunikatowi wydzwięku emocjonalnego, a co za tym idzie, gwarantuje on udany przekaz i jego interpretację. To właśnie przez te niedosłowne, często podświadomie odbierane sygnały odbiorca może efektywnie rekonstruować przekaz nadawcy.

Międzynarodowy projekt Cyberemotions [http://www.cyberemotions.eu/] jest, wydaje się, pierwszą (a na pewno jedną z nielicznych) próbą by zmienić status quo. Naukowcy z różnych dziedzin takich jak np. informatyka czy psychologia stworzyli program, który pozwala na wykrywanie i rozpoznawanie emocji online. Wysiłek ten, jakkolwiek ambitny, nie jest całkowicie wolny od uchybień. Można sobie bowiem zadać kardynalne pytanie po co nam taki program jeśli już posiadamy inne, alternatywne środki przekazu zabarwienia emocjonalnego wiadomości jakimi są chociażby emotikony czy tzw. kreatywne użycie klawiatury [nowatorskie zastosowanie znaków interpunkcyjnych, itp.]. Kolejnym wątpliwym aspektem jest kwestia ironii czy też codziennej niedosłowności przekazu, o użyciu przenośnym nie wspominając. Program Cyberemotions [dotowany przez Unię Europejską] ma, m. in., za zadanie przeszukiwać sieć pod kątem negatywnych uwag i opinii na temat wymienionego subsydariusza. Jednakże, działanie o takim charakterze może mieć cel dość odbiegający od oficjalnego, tj. naruszenie i powolne unicestwienie egalitaryzmu [tj. głównej maksymy internetowej] oraz wolności słowa.  Ponadto, twórcy wydają się nie zauważać (czy też może celowo ignorują) 40 lat, które poświęcono na tworzenie sztucznych systemów dialogowych (tzw. chatbot’ów). Współcześnie tylko niewielka grupa badaczy nadal zajmuje się tym zagadnieniem. Powodem było wiele nieudanych prób na przestrzeni prawie półwiecza, które wykazywały, że realizacją silnej AI miałaby zakończyć się sukcesem. Cyberemotions to software bazujący na korpusie tekstowym; u podstaw jego działania leży więc jego analiza par excellance.

CYBEREMOTIONS is a research domain that studies observable and analyzable phenomena related to any means of communication provided by the Internet – such as text, sound, visual (…) [moje podkreślenie]

A particular emphasis lies on the automatic analysis of online messages using methodologies such as sentiment analysis to provide access to emotional cues in large samples. [http://www.cyberemotions.eu/index.html]

Do powyższych uwag można dołączyć te tyczące się limitacji samych maszyn czy języków programowania używanych do emulacji emocji. Tylko dlatego, że dysponujemy najszybszymi, być może już niedługo kwantowymi komputerami, nie oznacza, że są one właściwym medium do symulacji czegoś tak nieuchwytnego i złożonego jak emocje. Dlaczego mielibyśmy sądzić, że akurat teraz i akurat na komputerach powiedzie się to przedsięwzięcie? Czy to aby nie ukryty, choć dawno obalony i skrytykowany funkcjonalizm i redukcjonizm?

Na uwagę zasługuje również określnik użyty przez twórców na stronie. W przytoczonym cytacie chodzi o przymiotnik collective:

The project focuses on the role of collective emotions in creating, forming and breaking-up e-communities. [http://www.cyberemotions.eu/index.html][moje podkreślenie]

Pochodzący z angielskiego, leksem collective można tłumaczyć jako zbiorowy czy też „kolektywny”. Oznaczałoby to, że w kontekście badań nad cyberemocjami coś tak indywidualnego i niepowtarzalnego jak egzemplifikacja emocji zostało zgeneralizowane i tym samym pozbawione swojej niepowtarzalności. Niemniej jednak, czy emocje można rozpatrywać w sposób zunifikowany i zgeneralizowany? Dla projektu jako całości, podobny błąd metodologiczny, który zostaje popełniony na etapie preliminariów może w znacznym stopniu zaważyć na wiarygodności rezultatów. Co więcej, należy zachować dystans również co do efektu końcowego, który może przedstawiać pewnego rodzaju hybrydę danej emocji niż jej wiarygodną reprezentację.

Powyższe uwagi stanowią rozpoczęcie do dyskusji nad projektem jak i samego zagadnienia zdigitalizowanych emocji; już pobieżna lektura zagadnienia dostarcza materiału na znacznie dokładniejszą analizę. Tym bardziej zasługuje ono na bliższą uwagę. Na nieszczęście wykonawców historia nauki pokazuje, że nawet najbardziej śmiały i dobrze rokujący projekt gdy pozbawiony konstruktywnej refleksji krytycznej może utknąć w martwym punkcie póki jakiś filozof nie skłoni się by go z powrotem skierować na obiecujące tory dzięki celnym uwagom krytycznym.

5. spotkanie

W dniu 6 grudnia 2012 r. odbyło się kolejne spotkanie grupy „Filozofia w Informatyce”, które miało miejsce w Akademii Ignatianum. Referat pt. Empiryczne aspekty informatyki (w kontekście badań nad sztuczną inteligencją) wygłosił P. Polak.

W referacie przedstawiono genezę informatyki i wskazano jak rzutowała ona na ujmowanie jej metodologii. Informatykę początkowo uważano za część matematyki (z reguły matematyki stosowanej) i sądzono, że metodologia matematyki powinna zostać przeniesiona na metodologię tej dziedziny. W środowiskach inżynierskich uważano natomiast informatykę za część działalności inżynierskiej, której celem jest budowa i obsługa maszyn cyfrowych. Podejście to utrwaliło się nawet w amerykańskiej nazwie dyscypliny: computer science.

Pierwsze pomysły związane z wprowadzeniem metodologii empirycznej wiążą się z działalnością prekursorów sztucznej inteligencji H. Simona i A. Newella. W pracy z 1976 r. zdefiniowali oni informatykę jako naukę empiryczną, a rozumienie to odnosili do swych badań na gruncie AI.

Późniejsza refleksja metodologiczna skłoniła się ku wyróżnieniu głównych paradygmatów uprawiania informatyki, w tym paradygmatu nauk przyrodniczych (scientific). W ostatnich latach odżyła dyskusja nad tym paradygmatem w związku z coraz powszechniejszymi głosami o kryzysie w koncepcjach rozwoju informatyki. Wydaje się, że paradygmat racjonalistyczny (matematyczny) oraz technokratyczny (inżynieryjny) wyczerpały możliwości obecnego rozwoju tej dziedziny. Stąd obiecujące wydaje się redefiniowanie informatyki jako dyscypliny opisującej naturalne procesy obliczeniowe (informacyjne). Dodatkowym argumentem za przyjęciem takiego stanowiska są odkrycia w różnorodnych naukach przyrodniczych, które ukazują naturalne mechanizmy obliczeniowe w przyrodzie. W związku z tym należy postawić pytanie o miejsce i rolę informatyki w strukturze nauk przyrodniczych oraz pytanie o metodologiczną specyfikę informatyki, rozumianej jako nauka empiryczna o przyrodzie.
W referacie zaznaczono również możliwość alternatywnego ujęcia kwestii empiryzmu informatyki z punktu widzenia platonizmu matematycznego na bazie koncepcji R. Penrose’a. (autoreferat).

Po referacie odbyła się krótka (ze względu na brak czasu) dyskusja nad podstawowymi kwestiami metodologicznymi związanymi z informatyką. Jednym z ważniejszych problemów poddanych dyskusji była kwestia postawy dogmatycznej (w sensie popperowskim) dominującej w informatyce. Zwrócenie uwagi na hipotetyczny charakter wypowiedzi oraz konieczność ich testowania są bardzo ważne dla usunięcia myślenia mitycznego, które paradoksalnie znalazło silne oparcie w tej dziedzinie. Koncepcje empiryczne w informatyce metodologicznie są więc obiecujące, ale nie można również zapominać o Penrose’owskiej alternatywie dla rozumienia metody informatyki.

Materiały: prezentacja do referatu w formacie PDF.

W spotkaniu wzięli udział:

  1. K. Czarnecki
  2. R. Janusz
  3. A. Olszewski
  4. P. Polak
  5. P. Urbańczyk
  6. S. Wilk
  7. M. Wilkowska

Następne spotkanie odbędzie 10 stycznia 2012 r.

4. spotkanie

Spotkanie odbyło się 8 XI 2012 r. i  zostało poświęcone następującym kwestiom:

  1. Dyskusja nad możliwością wykorzystania technik sztucznej inteligencji we wspomaganiu badań naukowych w filozofii (ogólnie: w humanistyce)

    Leonardo Torres y Quevedo (1852-1936)

    Leonardo Torres y Quevedo (1852-1936)

  2. Referat P. Urbańczyka Koncepcja automatyzacji Torresa y Quevedo jako przyczynek do rozwoju computer science. Referat o charakterze historycznym podejmował analizę dokonań zapomnianego dziś prekursora automatyki i sztucznej inteligencji Leonarda Torresa y Quevedo. W referacie ukazano szczegółowo dorobek  L. Torresa y Quevedo, ukazując zaczątki nowoczesnych idei ważny z punktu widzenia dalszego rozwoju informatyki. Poddano również analizie – dotychczas nie badane – filozoficzne założenia przyjmowane przez autora „Eseju o automatyce”.
    Po referacie odbyła się dyskusja na temat znaczenia dorobku L. Torresa y Quevedo dla automatyki. Szczególne kontrowersje budziło to, że badacz ten nie konstruował maszyn z wymiennym programem. W tym kontekście wiele pytań budziła kwestia w jakim stopniu badacz ten inspirował się pomysłami Ch. Babbage’a i dlaczego odrzucił ogólne pomysły brytyjskiego matematyka, mimo że były mu znane.

Do pobrania: prezentacja do referatu w formacie PDF.

W spotkaniu brali udział:

  1. R. Janusz
  2. R. Piechowicz
  3. P. Polak
  4. A. Sadowska
  5. P. Urbańczyk
  6. M. Wilkowska

Następne spotkanie odbędzie się w czwartek 6 grudnia 2012 r.