Category Archives: historia informatyki

29. spotkanie – Ontologia informacji. Wybrane idee Krzysztofa Turka

ontology18 listopada odbyło się kolejne spotkanie grupy badawczej. Poświęcone zostało formalnej ontologii informacji. Roman Krzanowski przedstawił referat pt. Ku formalnej ontologii informacji. Wybrane-idee Krzysztofa Turka.

Mimo, że istnieje wiele teorii dotyczących ontologii świata lub konkretnych zjawisk, teorie przedstawiające ontologie informacji, należą do rzadkości. Brak odpowiedniej reprezentacji tego problemu jest spowodowany prawdopodobnie faktem, że pojęcie informacji związane jest mocno z telekomunikacją i informatyką. Badacze teorii informacji nie dostrzegają istoty informacji w rzeczywistym, otaczającym człowieka świecie.

Roman Krzanowski podczas swojego wykładu zaprezentował jedną z możliwości rozważania charakteru ontologii informacji. Wskazał, że aby taka ontologia została odpowiednio przyjęta, musiałaby poddawać się logicznej formalizacji. Próbę przedstawienia idei odnajdujemy w pomysłach Krzysztofa Turka. Turek zaproponował przyjęcie  teorii ontologii informacji jako koncepcję ściśle związaną z filozofią przyrody. Uznał, że to podejście może okazać się brakującym ogniwem w zestawie aksjomatów teorii mnogości. Prelegent przedstawił propozycje zbudowania formalnej ontologii informacji, która zawierałaby zarówno filozoficzną interpretację jak i reprezentację logiczno-formalną.

Wpis został przygotowany przy pomocy Romana Krzanowskiego.


imagesTowards a Formal Ontology of Information. Selected Ideas of Krzysztof Turek

by Roman Krzanowski

There are many ontologies of the world or of specific phenomena such as time, matter, space, and quantum mechanics. However, ontologies of information are rather rare. One of the reasons behind this is that information is most frequently associated with communication and computing, and not with ‘the furniture of the world’.

But what would be the nature of an ontology of information? For it to be of significant import it should be amenable to formalization in a logico-grammatical formalism. A candidate ontology satisfying such a requirement can be found in some of the ideas of K. Turek, presented in this paper. Turek outlines the ontology of information conceived of as a part of nature, and provides the ‘missing link’ to the Z axiomatic set theory, offering a proposal for developing a formal ontology of information both in its philosophical and logico-grammatical representations.

Reklamy

Filozofia w logice i informatyce – zaproszenie do dyskusji

Zapraszamy do dyskusji internetowych wokół referatów związanych z pierwszą edycją konferencji „Filozofia w logice i informatyce„. Ten nowoczesny sposób – mamy nadzieję – pozwoli na przedłużenie konferencji i uzupełnienie jej.

Pod adresem http://calculemus.org/fli/dyskusje/ istnieje możliwość włączenia się w dyskusje wokół wybranych referatów. Jeśli chcieliby Państwo podjąć dyskusję nad innymi referatami członków naszej grupy, prosimy o kontakt.

calculemuspw1

27. spotkanie – Teza Churcha w informatyce

18 czerwca, w gościnnych murach Akademii Ignatianum, odbyło się ostatnie w tym roku akademickim, spotkanie grupy Maquinaposzukującej implikacji filozoficznych w informatyce.

Tym razem Adam Olszewski rozważał odpowiedź na pytanie Czy teza Churcha ma jeszcze jakieś znaczenie dla informatyki? Zauważył, że algorytmiczny punkt widzenie jest doskonałym sposobem porządkowania rzeczywistości, w tym rzeczywistości informatycznej. W wyniku próby aksjomatyzacji informatyki powstała teza Churcha, będącej intuicyjnym pojęciem funkcji efektywnie obliczalnej. Niestety, tym samym został przedstawiony nierozwiązywalny, w tym ujęciu, problem stopu, którego nie jest w stanie obliczyć żadna funkcja rekurencyjna. Jednak problem nie został ostatecznie zamknięty jako nierozwiązany. Pojawiła się bowiem idea hiperobliczalności, która dzięki potencjalnej możliwości rozszerzenia pojęcia obliczalności, może przynieść rozwiązanie. W ten sposób teza Churcha została osłabiona.

W dalszej części referatu, Olszewski przedstawił wyniki teoretycznych rozważań, odnoszących się do prób implementacji hiperobliczalności w strukturze komputerowej. Przedstawił również modele obliczalności i związaną z nimi hierarchię arytmetyczną. Wskazał również kilka modeli alternatywnych.

Spotkanie zakończyło się dyskusją nad tym, czy możliwe jest by teza Churcha była fałszywa. Zastanawiano się również, jak taka możliwość zmieniłaby logikę i sposoby rozwiązywania nierozstrzygalnych dotychczas problemów.

W labiryncie złożoności…

Interesującą propozycję wizualizacji powiązań pomiędzy różnymi kierunkami badań związanych z zagadnieniem złożoności można zobaczyć poniżej. Warto przejść do źródłowego serwisu, ponieważ większość tematów została wyposażona w linki. Dzięki temu możemy odbyć pouczającą podróż przez krainę złożoności.

Jak widać na załączonej ilustracji ogromna ilość idei ważnych dla filozofii informatyki zrodziła się w kontekście badań nad złożonością, systemami i sztuczną inteligencją. Jak widać nurty te mają liczne powiązania. Z wad można na pierwszy rzut oka wskazać nieobecność ucieleśnionej sztucznej inteligencji. Mimo to przegląd powiązań robi duże wrażenie. Najciekawsze jest to, że wiele tematów jest typowych dla współczesnej informatyki, ale nazwa ta nie pojawia się w ogóle w zestawieniu.

W jakim kierunku pójdzie dalsza ewolucja? Jaki kształt przybierze nauka o informacji za kilka lat?

complexity-map_internet3

13. spotkanie – Czy komputer może być przydatny w matematyce ścisłej? Historia obalenia hipotezy Mertensa

W listopadzie odbyły się wyjątkowo dwa spotkania. Okazją do drugiego spotkania (23 listopada 2013 r.) stał się referat, który wygłosił dr hab. Krzysztof Maślanka, prof IHN. Referat połączył prace dwóch grup: filozofii w informatyce oraz filozofii fizyki.

Franz Mertens.jpg

Franciszek Mertens (1840-1927) – ur. w Środzie [Wielkopolskiej], prof. matematyki w Krakowie (UJ), Grazu i w Wiedniu (uniwersytet)

Tematem wystąpienia była analiza przypadku (case study), który mógłby przybliżyć nas do odpowiedzi na tytułowe pytanie o głębokich implikacjach filozoficznych. Przypadkiem tym było obalenie hipotezy Mertensa przy pomocy programu komputerowego. Hipoteza Franciszka Mertensa (nazwana od nazwiska XIX-wiecznego matematyka, związanego przez pewien czas z Krakowem) jest bardzo ważna, ponieważ jej prawdziwość pociąga za sobą prawdziwość słynnej hipotezy Riemanna. „Eksperymentalne” próby testowania hipotezy Mertensa (bazujące na obliczeniach numerycznych) wydawały się bardzo obiecujące. Hipoteza spełniała nie tylko wszystkie warunki metodologiczne sformułowane przez Poppera (śmiałość przewidywań, testowalność), ale była również niezwykle dobrze potwierdzona licznymi wynikami obliczeń numerycznych (dobrze potwierdzona do wartości argumentu n=10^7). Okazało się jednak, że dzięki zastosowaniu algorytmu LLL (algorytm Lenstra, Lenstra, & Lovász opracowany pierwotnie na potrzeby kryptografii), udało się znaleźć taką wartość argumentu n, że hipoteza Mertensa okazała się nieprawdziwa.

Kilka interesujących uwag na ten temat można znaleźć w artykule K. Maślanki Matematyka i piękno opublikowanego na łamach czasopisma „PAUza Akademicka”.

Warto również sięgnąć do oryginalnego artykułu A.M. Odlyzko, T.J.J. te Riele, Disproof of the Mertens Conjecture (1985) [NB. pierwszy komunikat o wyniku pochodzi z roku 1983].

Uczestnicy spotkania (grupa filozofia w informatyce, w kolejności alfabetycznej):

  1. P. Gumułka
  2. R. Janusz
  3. A. Koleżyński
  4. P. Polak
  5. P. Urbańczyk

7. spotkanie

W dniu 28 lutego, w gościnnych murach Ignatianum odbyło się 7. z kolei spotkanie grupy badającej wątki filozoficzne w

Fontenelle.Lebens-beschreibung.1720.leibniz calculatorinformatyce. Było ono podzielone na 2 części; w pierwszej, Maria Wilkowska zaznajomiła obecnych z projektem CyberEmotions. Po krótkim nakreśleniu tematu rozpoczęła się dyskusja nt. filozoficznych implikacji takiego przedsięwzięcia, ze szczególną uwagą zwróconą na zagadnienie qualiów. Część druga została poświęcona  głównej prezentacji, którą przygotował Sławomir Wilk. Jej przedmiotem były Leibnizowskie podstawy komputerów.

Podczas wystąpienia prelegent wskazał elementy informatycznych podwalin, które można odnaleźć w ideach Leibniza. Zaskakujące, ale okazuje się, że już w poglądach tak wczesnych myślicieli i filozofów jak Gotfried Wilhelm Leibniz daje się zauważyć pewne zaczątki myślenia charakterystycznego dla współczesnego poglądu komputacjonistycznego i informatycznego, takie jak np. obliczalność czy kod binarny. W swoich próbach, filozof ten, podjął się stworzenia tzw. lingua characteristica czyli obiektywnego języka, dzięki któremu dowodzenie prawdziwości lub fałszu dowolnego zdania w ramach systemu byłoby możliwe. Udane stworzenie takiego języka miało być równoznaczne z tym, że świat, umysł czy istoty ludzkie są w pewnym sensie obliczalne. Taki język miałby mieć binarną postać. Związany z nim program Calculemus nosi cechy charakterystyczne dla rachunku symbolicznego. Leibniz był również jednym z pierwszych konstruktorów maszyn liczących, które operowały na liczbach binarnych. Z tego względu można je uznać za prymitywne komputery. Z początku, Leibniz przejawiał poglądy podobne do A. Turinga, a dokładniej te, tyczące się przekonania o obliczalności świata, a ogólnie pojmowana „maszyna licząca” była rozpatrywana w kontekście ludzkiego ciała. Rozumiany w ten sposób tzw. „Leibniz I” byłby również zwolennikiem dzisiejszej silnej AI. Z biegiem lat, jednakże, wizje te uległy zmianie. Odtąd „maszyna” widziana była już tylko jako automat, przekonanie o silnej AI uległo znacznemu osłabieniu, a jego miejsce zajęła słynna metafora mózgu jako młyna. Poglądy tzw. „Leibniza II” są zbieżne z tymi, jakie przejawiał J. von Neumann.

Po zakończeniu referatu odbyła się dyskusja, której tematem przewodnim było pytanie o metafizykę Leibniza a prawo do ekstrapolowania jej na grunt informatyczny.

Na spotkaniu obecni byli:

P. Polak

R. Janusz

S. Wilk

P. Domider

A. Sarosiek

M. Wilkowska

Kolejne zebranie przewidziane jest na koniec bieżącego miesiąca.

5. spotkanie

W dniu 6 grudnia 2012 r. odbyło się kolejne spotkanie grupy „Filozofia w Informatyce”, które miało miejsce w Akademii Ignatianum. Referat pt. Empiryczne aspekty informatyki (w kontekście badań nad sztuczną inteligencją) wygłosił P. Polak.

W referacie przedstawiono genezę informatyki i wskazano jak rzutowała ona na ujmowanie jej metodologii. Informatykę początkowo uważano za część matematyki (z reguły matematyki stosowanej) i sądzono, że metodologia matematyki powinna zostać przeniesiona na metodologię tej dziedziny. W środowiskach inżynierskich uważano natomiast informatykę za część działalności inżynierskiej, której celem jest budowa i obsługa maszyn cyfrowych. Podejście to utrwaliło się nawet w amerykańskiej nazwie dyscypliny: computer science.

Pierwsze pomysły związane z wprowadzeniem metodologii empirycznej wiążą się z działalnością prekursorów sztucznej inteligencji H. Simona i A. Newella. W pracy z 1976 r. zdefiniowali oni informatykę jako naukę empiryczną, a rozumienie to odnosili do swych badań na gruncie AI.

Późniejsza refleksja metodologiczna skłoniła się ku wyróżnieniu głównych paradygmatów uprawiania informatyki, w tym paradygmatu nauk przyrodniczych (scientific). W ostatnich latach odżyła dyskusja nad tym paradygmatem w związku z coraz powszechniejszymi głosami o kryzysie w koncepcjach rozwoju informatyki. Wydaje się, że paradygmat racjonalistyczny (matematyczny) oraz technokratyczny (inżynieryjny) wyczerpały możliwości obecnego rozwoju tej dziedziny. Stąd obiecujące wydaje się redefiniowanie informatyki jako dyscypliny opisującej naturalne procesy obliczeniowe (informacyjne). Dodatkowym argumentem za przyjęciem takiego stanowiska są odkrycia w różnorodnych naukach przyrodniczych, które ukazują naturalne mechanizmy obliczeniowe w przyrodzie. W związku z tym należy postawić pytanie o miejsce i rolę informatyki w strukturze nauk przyrodniczych oraz pytanie o metodologiczną specyfikę informatyki, rozumianej jako nauka empiryczna o przyrodzie.
W referacie zaznaczono również możliwość alternatywnego ujęcia kwestii empiryzmu informatyki z punktu widzenia platonizmu matematycznego na bazie koncepcji R. Penrose’a. (autoreferat).

Po referacie odbyła się krótka (ze względu na brak czasu) dyskusja nad podstawowymi kwestiami metodologicznymi związanymi z informatyką. Jednym z ważniejszych problemów poddanych dyskusji była kwestia postawy dogmatycznej (w sensie popperowskim) dominującej w informatyce. Zwrócenie uwagi na hipotetyczny charakter wypowiedzi oraz konieczność ich testowania są bardzo ważne dla usunięcia myślenia mitycznego, które paradoksalnie znalazło silne oparcie w tej dziedzinie. Koncepcje empiryczne w informatyce metodologicznie są więc obiecujące, ale nie można również zapominać o Penrose’owskiej alternatywie dla rozumienia metody informatyki.

Materiały: prezentacja do referatu w formacie PDF.

W spotkaniu wzięli udział:

  1. K. Czarnecki
  2. R. Janusz
  3. A. Olszewski
  4. P. Polak
  5. P. Urbańczyk
  6. S. Wilk
  7. M. Wilkowska

Następne spotkanie odbędzie 10 stycznia 2012 r.

4. spotkanie

Spotkanie odbyło się 8 XI 2012 r. i  zostało poświęcone następującym kwestiom:

  1. Dyskusja nad możliwością wykorzystania technik sztucznej inteligencji we wspomaganiu badań naukowych w filozofii (ogólnie: w humanistyce)

    Leonardo Torres y Quevedo (1852-1936)

    Leonardo Torres y Quevedo (1852-1936)

  2. Referat P. Urbańczyka Koncepcja automatyzacji Torresa y Quevedo jako przyczynek do rozwoju computer science. Referat o charakterze historycznym podejmował analizę dokonań zapomnianego dziś prekursora automatyki i sztucznej inteligencji Leonarda Torresa y Quevedo. W referacie ukazano szczegółowo dorobek  L. Torresa y Quevedo, ukazując zaczątki nowoczesnych idei ważny z punktu widzenia dalszego rozwoju informatyki. Poddano również analizie – dotychczas nie badane – filozoficzne założenia przyjmowane przez autora „Eseju o automatyce”.
    Po referacie odbyła się dyskusja na temat znaczenia dorobku L. Torresa y Quevedo dla automatyki. Szczególne kontrowersje budziło to, że badacz ten nie konstruował maszyn z wymiennym programem. W tym kontekście wiele pytań budziła kwestia w jakim stopniu badacz ten inspirował się pomysłami Ch. Babbage’a i dlaczego odrzucił ogólne pomysły brytyjskiego matematyka, mimo że były mu znane.

Do pobrania: prezentacja do referatu w formacie PDF.

W spotkaniu brali udział:

  1. R. Janusz
  2. R. Piechowicz
  3. P. Polak
  4. A. Sadowska
  5. P. Urbańczyk
  6. M. Wilkowska

Następne spotkanie odbędzie się w czwartek 6 grudnia 2012 r.