Author Archives: P.Polak

Zaproszenie do Poznania – Filozofia w informatyce III

pexels-photo-249580-1600x1067Mamy przyjemność poinformować, że już po raz trzeci odbędzie się ogólnopolska konferencja naukowa z cyklu Filozofia w informatyce. Tym razem konferencja odbędzie się w dniach 14-15 grudnia 2017 r.w Instytucie Filozofii Uniwersytetu im. Adama Mickiewicza w Poznaniu. Temat przewodni tegorocznego spotkania to: Informatyczny świat a filozofia.

 

Pierwsza konferencja z tego cyklu odbyła się na Politechnice Warszawskiej (2015) http://calculemus.org/fli/ , druga na Wydziale Filozoficznym Uniwersytetu Papieskiego Jana Pawła II w Krakowie (2016) http://calculemus.org/fi2/ .

Nasze spotkania mają za zadanie scalać różne polskie środowiska zajmujące się refleksją nad informatyką i służyć rozwojowi filozofii informatyki.

Termin nadsyłania zgłoszeń na konferencję: 15 listopada 2017 r. (na adres sekretarza lorayanz@gmail.com ).

Więcej informacji na oficjalnej stronie konferencji: http://calculemus.org/fi3/

 

Reklamy

45. spotkanie – Pojęcie a znak w świetle systemów informacyjnych

Podczas ostatniego spotkania w r.a. 2016/2017 referat pt. „Pojęcie a znak w świetle systemów informacyjnych” wygłosił prof. André Włodarczyk (Université Ch. de Gaulle – Lille i Paris-Sorbonne).

(Autoreferat)

Wielu podstawowych zagadnień semiozy nie da się wyjaśnić ani przy pomocy dwudzielnej teorii  znaku (forma:treść) ani żadnej z odmian teorii trójdzielnej (forma:treść:świat). Ponadto filozofowie treść (czyli znaczenie) traktują zamiennie: albo tylko intensjonalnie albo wyłącznie ekstensjonalnie. W oparciu o powstałą na gruncie informatyki dziedzinę badań zwaną drążeniem danych (data mining), a zwłaszcza o najnowsze podejście symboliczne (tj. od strony logiki), w przeciwstawieniu do analiz danych cyfrowych (tj. od strony statystyki), wiedzę o świecie można pozyskiwać stosując metody należące do nauk ścisłych. Jako że centralnym zagadnieniem wszelkiej wiedzy jest pojęcie, warto zapożyczyć jego definicję z teorii Analizy Pojęć Formalnych (Formal Concept Analysis – FCA), a skoro na pojęcia formalne składają się równocześnie tak ekstensje jak i intensje, nowa teoria semiozy zyskać może nie tylko na formalnej spójności, ale także na bardziej szczegółowej analizie.

Z przeprowadzonych doświadczeń (interaktywnych badań nad wyrażeniami językowymi) przy użyciu narzędzi do analizy danych nasuwa się następujący wniosek: zarówno znaki, ikony jak i wskaźniki są w pierwszym rzędzie sygnałami i – jako takie – winny być traktowane tak samo, jak wszystkie inne obiekty (szerzej: rzeczy). Dopiero przyporządkowanie pojęć semiotycznych (semionów) pojęciom nie będącym pojęciami semiotycznymi (noematami) pozwala na mówienie o znaczeniu. Zatem traktując znaki wszelkiego rodzaju jako byty same w sobie, można rozpatrywać nie tylko obiekty i relacje, lecz również wszelkie „nośniki” treści semiotycznych i ich wzajemne powiązania z tego samego punktu widzenia.

Inaczej mówiąc: tak “rzeczywiste” przedmioty jak i przedmioty “zastępcze” (sygnały) mają w naszych umysłach przyporządkowania pojęciowe (ontologiczne). Ponadto, zachodzące między jednymi a drugimi związki są czysto arbitralne. To właśnie te związki stanowią treści semantyczne, nie zaś aksjomaty logiczne, które sugerują istnienie bezpośrednich związków znaków ze światem zewnętrznym. A więc “treści semantyczne” są wynikiem niekonforemnych odwzorowań semionów w noematów, przy czym budowa tak semionów jak i noematów wymaga jakiegoś wspólnego kodu wewnętrznego (systemowego) w kontraście do poglądu, jakoby wszystkie procesy naszej myśli zachodzić miały w języku naturalnym. Warto także podkreślić, że proponowana teoria semiozy (w porównaniu z teoriami klasycznymi) zapewnia znakom (będącym składnikami semionów) więcej autonomii wobec pojęć poznawczych (noematów) oraz wskazuje na potrzebę rozwiązania niebłahego problemu, a mianowicie względnego (cząstkowego, często niewłaściwego, a nawet zupełnie błędnego) stosunku semantyki od ontologii.

Logika a pozyskiwanie wiedzy

Dla potrzeb eksploracji danych w informatyce powstaje coraz więcej logik, których punktem wyjścia są m. in.: potrzeba przedstawienia informacji, redukcja wiedzy pewnej, przybliżenie wiedzy niepewnej oraz ewaluacja uzyskanych wyników w trybie drążenia danych. Do tego rodzaju badań należą takie logiki, jak: (a) logika kontekstowa (Contextual Logic) wywodząca się z analizy pojęć formalnych (Formal Concept Analysis), (b) logika decyzyjna (Decision Logic) wywodząca się z teorii zbiorów przybliżonych (Rough Set Theory) i (c) logika rozmyta (Fuzzy Logic). Ponadto, pewne nadzieje na praktyczne zastosowania można żywić wobec logiki przepływu rozproszonej informacji (Distributed Information Flow Logic), która wyrosła na gruncie badań nad sekwentami stanowiącymi podwaliny tzw. semantyki sytuacyjnej (Situation Semantics).

Pojęcia (formalne) a znaki

Pojęcie formalne – to para ekstensji i intensji otrzymana w wyniku działania dwoistej funkcji przyporządkowania atrybutów obiektom formalnym i na odwrót (wg. definicji formalnej Rudolfa Willego – 1982 r.). W Analizie pojęć formalnych (FCA – Formal Concept Analysis) przedmioty (świata rzeczywistego i fikcji) są traktowane jak obiekty formalne. Właściwie termin obiekt formalny, stanowiąc ekstensję pojęć formalnych, jest symbolicznym “odwzorowaniem” przedmiotu (szerzej: rzeczy), ponieważ dla istot obdarzonych systemami kognitywnymi rzeczy mają jakby dwa “wcielenia”: zewnętrzne (istniejące w otoczeniu) oraz wewnętrzne (przedstawione w umyśle). Powyższe nie wyklucza ani tego, że owo „istnienie w otoczeniu” może być nieznane (nienazwane), ani też tego, że owo „przedstawienie w umyśle” może być tylko wyobrażone (mniemane). W każdym przypadku mamy do czynienia z ekstensją pojęć formalnych.

W dodatku spośród rzeczy wyróżnić jeszcze należy znaki, których obiekty formalne są ekstensjami pojęć formalnych. Tego rodzaju pojęcia proponuję nazwać semionami. Zatem należy rozgraniczyć pomiędzy

(1) pojęciami formalnymi np. języka naturalnego, w skład ekstensji których wchodzą znaki jako obiekty formalne. Na przykład “kobieta” w:

{{“kobieta”}, {część mowy: rzeczownik, rodzaj: żeński}}

a (2) pojęciami formalnymi kodu wewnętrznego (niekoniecznie mającymi wykładniki językowe), w skład intensji których wchodzą obiekty formalne odnoszące się tak do świata rzeczywistego, jak na przykład [kobieta] w:

{{[kobieta]}, {byt: ludzki, płeć: żeńska}}

jak i do świata fikcji, np. [pegaz] w:

{{[pegaz]}, {byt: zwierzę mityczne, rodzaj: skrzydlaty koń}}).

Schemat stosunku znak-pojęcie (wg A. Włodarczyka)

W przypadku znaków istotą rzeczy jako meta-obiektów (czyli obiektów formalnych) jest jednocześnie „zastępowanie” innych rzeczy, co nastąpić może wyłącznie w umyśle (wewnątrz systemu kognitywnego), ponieważ – na mocy konwencji – wymaga ono funkcji interpretacji, tj. przyporządkowania semionów noemom. Jest to wyraźne odejście od semiotycznego trójkąta Peirce’a, ponieważ (1°) występują tu dwa pojęcia (a nie jedno) wobec symbolu i świata oraz (2°) z uwagi na to, że pojęcia zdefiniowane jako pary formalne {{ekstensja},{intensja}} są składnikami przestrzeni wiedzy. W konsekwencji powyższych rozważań klasyczne pojęcia „formy” i „treści” są doprecyzowane, ponieważ każde z nich wchodzi w skład ekstensji pojęcia formalnego, a więc dwoistej pary {ekstensja, intensja}, a to znaczy, że ani “forma” nie ogranicza się do ekstensji ani też „treść” do intensji, przy czym „forma” znaku wymaga w pierwszym rzędzie wiedzy semiotycznej, podczas gdy jego “treść” poprzez interpretację semantyczną – wymaga wiedzy ontologicznej ugruntowanej w pojęciach formalnych dotyczących rzeczy. Nadmieńmy, że przyporządkowanie tych dwóch rodzajów pojęć ma charakter umowny (intersubiektywny), zasadza się na schematach (walencjach słownych), a więc jest słabo rekurencyjne. Przyczyną tego faktu jest to, że zarówno wszelka wiedza o otaczającym nas świecie jak i komunikacja międzyludzka są w naszych umysłach schematyczne (modularne), sieciowo rozproszone. Zatem powstająca nowa teoria znaku nabiera charakteru operacyjnego, czego brakowało semiologicznym teoriom F. de Saussure’a i Ch. Peirce’a.


Concepts and Sign in the light of Information Systems

The mathematical definition of a concept, known as formal concept, is a dual pair of extension and intension within a given context of assignments of features (“intents”) to objects (“extents”). This definition, given by R. Wille (1982), greatly inspired the data-mining community. From a linguistic point of view, applying this definition to cognitive domains makes it possible, first of all, to treat symbols in the same way as “real world” objects; i.e.: as both symbolic objects and real objects considered as extents of formal concepts within their own contexts. In classic semiotics, concepts are either “signified” parts of signs which are “inseparable” from their “signifier” parts (F. de Saussure) or “interpretants” (kind of link or function) of symbols w.r.t. objects (Ch. S. Peirce). However, within the data-mining community, studies of signs as objects are rare. The formalization of Peircean semiotics is the work of U. Priss and it should be seen as an exception. Nevertheless, the resulting theory is a reconstruction of the original one rather than a recasting proposal.

Semion-Noem

Sign-Concept Relationship Schema (by André Wlodarczyk)

In the present approach, sign-objects are internalized as formal objects of the formal concepts called Semions and real objects (things) are internalized as formal objects of the formal concepts called Noema. Note that, in the examples below, while “Mädchen” is a German word, [girl] represents the formal object of a Thing.

Tentative example of a (German) Semion:

{{„Mädchen”}, {Part-of-Speech: noun, Gender: neuter}}

Tentative example of an (universal) Noema:

{{[girl]}, {Entity: human, Sex: female}}

Clearly, the meaning of an expression is the interpretation function from Semions to Noemas, while signification is the expression being the range of an inverse interpretation. Consequently, the meaning of natural language expressions is not the function between symbols and their representations but the one between symbolic concepts and cognitive concepts.

It also turns out that, in the Saussurian theory of sign, the “signifier” is “extent” and the “signified” is “intent” either of Semion or of Noema, on the one hand, and that the Peircean “interpretant” on the other hand is actually a function, not a “concept”. In other settings of the Peircean theory where the “interpretant” is a “concept”, it must be split into two.

As a concluding remark, it is important to note that in this completely new setting, man thinks in an internal conceptual code rather than in a natural language.


44. spotkanie – Automatyzacja pomiaru ukrytych postaw poznawczych przy pomocy pomiaru fal mózgowych oraz analizy wyrazów mimicznych – możliwości i wyzwania

Prezentacja dr. hab. Krzysztof Sołoduchy z ZNH/WCY WAT dotyczyła projektu maszyny wnioskującej służącej do badania ukrytych postaw i opinii respondentów. Ukryte postawy i opinie wykorzystywane są przez wytworzony ewolucyjnie ludzki system  poznawczy do przetwarzania informacji z otoczenia bez reprezentacji w świadomości. Mają one zatem wpływ na zachowania i podejmowanie decyzji , ale ten wpływ nie jest przez respondentów dostrzegany mimo tego, że może być  w sposób planowy kształtowany przez zastosowanie odpowiednich technik komunikacji.

Co więcej, respondenci nie mogą zgłaszać ukrytych postaw i opinii w tradycyjnych badaniach ankietowych, ponieważ nie są ich świadomi. Te postawy nie mogą zatem być wykryte, albo są wykrywane z trudem przez tradycyjne techniki socjologii deklaratywnej.

Projekt dotyczy prac B+R nad maszyną wnioskującą opartą o webowy interfejs służącą do badania ukrytych postaw i opinii respondentów opartą o detekcję wyrazów mimicznych, zmian fal mózgowych i badania ankietowe bez udziału agencji badawczych. Maszyna jest modułem systemu informatycznego, który na podstawie sygnałów wejściowych (źródłem jest respondent poddawany bodźcom) będzie wyznaczać ocenę stanu uczuć i emocji  osoby, klasyfikując go do 1 z 3 podstawowych klas reakcji: pozytywna, neutralna, negatywna.

Maszyna wnioskująca będzie miała również możliwość adaptacyjnego uczenia się w fazie operacyjnego działania. Do budowy maszyny wnioskującej wykorzystywane będą algorytmy sztucznej inteligencji: sieci neuronowe, drzewa decyzyjne i lasy losowe, modele regresji logistycznej, sieci Bayesa i metody oparte o k-najbliższych sąsiadów. Tak więc system informatyczny zakłada dostarczanie mechanizmów sztucznej inteligencji wykorzystanych do rozpoznawania wzorców i klasyfikacji stanu badanej osoby.

W wystąpieniu oraz w dyskusji pojawiły się liczne wątki dotyczące podstaw filozoficznych, neurobiologicznych i technicznych projektu. (Autoreferat)

Uczestnicy:

  1. K. Soloducha – prelegent
  2. R. Janusz
  3. R. Krzanowski
  4. K. Mamak
  5. P. Polak
  6. K. Trombik
  7. W. Zasada

40. spotkanie – Epistemologiczne znaczenie modeli matematycznych i symulacji komputerowych w poznaniu procesów subkomórkowych

Związek teorii z empirią należy do podstawowych zagadnień filozofii nauki i został poddany szczegółowej refleksji filozoficznej, w tym epistemologicznej.

W ciągu ostatnich kilkudziesięciu lat, w związku z rozwojem techniki komputerowej, symulacje numeryczne stały się powszechnie używanym narzędziem w naukach przyrodniczych. Ich epistemologiczny aspekt nie został jeszcze poddany badaniom.

Specyficzna rola symulacji komputerowych objawia się w biologii subkomórkowej, gdzie możliwości stosowania procedur eksperymentalnych i obserwacji są ograniczone. Symulacja komputerowa jest komplementarnym, w stosunku do obserwacji i eksperymentu, narzędziem epistemologicznym, wchodzącym w złożone relacje metodologiczne z narzędziami klasycznymi. Pozwala na wyciąganie wniosków w sytuacjach, gdy nie jest możliwa obserwacja lub eksperyment, w szczególności na oszacowanie niemierzalnych parametrów modelu.

Uczestnicy:

  1. Andrzej Bielecki – prelegent
  2. Józef Bremer
  3. Piotr Gumułka
  4. Robert Janusz
  5. Roman Krzanowski
  6. Paweł Polak
  7. Kamil Trombik
  8. Krzysztof Turek
  9. Aleksandra Sadowska
  10. Piotr Urbańczyk
  11. Wojciech Zasada

Epistemological significance of mathematical models and computer simulations in subcellular biology

Relations between theory and empirical knowledge belong to basic problems in philosophy of science and have been undergone detailed philosophical reflection, including epistemological aspects.

During last several dozen years, due to development of computer technology, numerical simulations became a common tool in natural sciences. Their epistemological aspects, however, have not worked out yet.

A specific role of computer simulations manifests in subcellular biology, where possibilities of performing experiments and observations are limited. Computer simulation is complementary to observation and experiment and comes into complex relations with them. It allows us to come to a conclusion if experiment or observations are impossible to perform. In particular, simulations allows researchers to estimate the parameters that cannot be measured.

Cultured Rat Hippocampal Neuron; AlexaFluor 488-Anti Beta III Tubulin and Cy3-Anti MAP2 (HM-2); 63x/1.4. Imaged with ZEISS ApoTome.2, Axiocam 702 mono and Axio Imager http://www.zeiss.com/axiocam
Sample courtesy of Stefanie Kaech & Gary Banker, OHSU, Oregon, USA (CC BY 2.0)

39. spotkanie – Technologie kognitywne: gdy informatyka wkracza w sferę poznania

Drugie spotkanie w bieżącym roku akademickim odbyło się 14 grudnia 2016 r. Referat wygłosił mgr Artur Gunia – doktorant w Zakładzie Kognitywistyki UJ. Realizuje on pracę doktorską pt.: Wzmocnienie poznawcze w kontekście transhumanistycznym. Teoria, praktyka oraz konsekwencje wpływu technologii kognitywnych na człowieka pod kierunkiem promotorów Sidey Myoo (dr hab. Michał Ostrowicki) oraz dr hab. inż. Grzegorz J. Nalepa, prof. AGH. Więcej o prelegencie i jego działalności naukowej na stronach:
https://jagiellonian.academia.edu/ArturGunia
https://wzmocnieniepoznawcze.wordpress.com/

Autoreferat

Czy komputery, systemy informatyczne i najnowsze dokonania w dziedzinie informatyki to w dalszym ciągu tylko narzędzia ułatwiające codzienną pracę, czy też wkraczają głębiej w ludzkie życie? Nieustanna rewolucja informatyczna, minimalizacja układów scalonych przy coraz większej mocy obliczeniowej oraz powszechna dostępność technologii informatycznych sprawia, że jest ona coraz bliżej człowieka, a przez to ludzka egzystencja przenika świat fizyczny ze światem wirtualnym.

W referacie próbowano ukazać technologie informatyczne, które usprawniają ludzkie władze poznawcze, symulują poznanie, bądź same poznają. Problematyka ta odnosi się do koncepcji wzmocnienia ludzkiego, która dotyczy czasowego, bądź ciągłego przekraczania ograniczeń wynikających z niedoskonałości ludzkiego ciała, zarówno metodami naturalnymi, jak i sztucznymi. Szczególnym jej przypadkiem jest wzmocnienie poznawcze, które stawia sobie za cel podniesienie wydajności intelektualnej człowieka. Wzmocnienie możliwe jest do osiągnięcia metodami biotechnologicznymi, niefarmakologicznymi oraz informatycznymi. Te ostatnie polegają na wykorzystaniu technologii informatycznych do wspierania czynności umysłowych. Szczególną grupą technik są technologie kognitywne, które aktywnie i na bieżąco wspierają proces poznawczy człowieka. I właśnie ich możliwości oraz konsekwencji ich użytkowania poświęcona była analiza podczas wystąpienia.

mechanics-bites


Cognitive technologies – when computer enters the realm of cognition

Are computers, information systems and the latest achievements in the field of computer science still only a tool to facilitate the daily work or they enter more deeply into human life? The constant information revolution, minimizing integrated circuits with ever increasing computing power and the widespread availability of information technology makes it closer to the man, and thus human existence permeates the physical world with the virtual world.

The paper attempts to show the information technologies that improve human cognitive faculties, simulate cognition, or themselves are part of cognition. This issue relates to the concept of human enhancement, which rely to temporarily or continuous overcome limitations resulting from the imperfections of the human body, both methods of natural and artificial. A special case is the enhancing of the cognition, which aims to improve the efficiency of human cognition. It is possible to achieve by biotechnological methods, non-pharmacological and with the help of information technology. That last one rely on the use of information technology to support mental activities. A particular group of techniques are cognitive technologies, which actively and continuously support the human cognitive process. The presentation shows their opportunities and consequences of usage.

Sztuczne życie – dojrzały nurt badań

al_coverNajnowszy numer czasopisma Artificial Life przynosi interesujący artykuł podsumowujący pierwsze 21 lat rozwoju badań z tego zakresu z perspektywy badań nad Internetem. Śmiało można już powiedzieć, że badania sztucznego życia (Artifical Life) tworzą dojrzały program badawczy na pograniczu biologii i informatyki.

Program ten silnie związany jest również z refleksją filozoficzną, która z jednej strony dostarcza licznych inspiracji dla badań, a z drugiej – sama inspirowana jest osiąganymi rezultatami. Okazuje się bowiem, że narzędzia komputerowe pozwalają nam uogólniać koncepcje biologiczne i testować je empirycznie w środowiskach wirtualnych.

Badania z nurtu sztucznego życia stanowią również nowe wyzwanie dla metodologów nauki – mamy bowiem do czynienia z nowym typem symulacji komputerowych. W tym przypadku nie ma bowiem zwykle możliwości porównania wyników z rzeczywistością przyrodniczą. Jedyną rzeczywistością, w której rozgrywają się badania i możliwe są porównania to rzeczywistość generowana cyfrowo, którą z powodzeniem można badań za pomocą swoistych metod ’empirycznych’.

Zapraszamy do lektury pełnej treści artykułu dostępnego on-line:

WebAL Comes of Age: A Review of the First 21 Years of Artificial Life on the Web.


Artificial Life – a mature research program

New issue of Artificial Life brings interesting article concerning the first 21 years of Artifical Life in Web. We can state clearly tal_coverhat AL is a mature research program in the interdisciplinary field (biology & computing).

AL is closely tied with the philosophy, which brings many inspirations for AL, and on the other hand, which takes many inspirations from the AL’s results. This interdisciplinary field allows to generalize some biological concepts and to test them ’empirically’ in virtual environments.

AL is challenging for the philosophers of science, because it shows a new kind of ’empiricism’ in virtual worlds. This is a new situation, which need methodological analyses, far beyond the analyses of the methodology of computer simulations.

The full text article about the AL’s development in the Web is available freely on-line:

WebAL Comes of Age: A Review of the First 21 Years of Artificial Life on the Web.

38. spotkanie – Dane, zbiory, bazy danych

19 października 2016 r. odbyło się kolejne spotkanie grupy, pierwsze w nowym roku akademickim. Referat pt. „Dane, Zbiory, Bazy danych” wygłosił Wojciech Zasada. W referacie przedstawione został historyczny rozwój zastosowania danych w programach – począwszy od danych binarnych, wpisanych bezpośrednio do programu, poprzez przykładowe deklaracje danych numerycznych, wraz z ich ograniczeniami i wynikającymi z tego konsekwencjami, aż do obecnie powszechnie używanych danych takich jak np. obrazy, czy dźwięki.

Następnie przedstawione zostały główne typy zbiorów, będących odzwierciedleniem potrzeb zapisu różnych powtarzalnych danych, jak i możliwości technicznych przechowywania oraz dostępu do zbiorów. Podkreślone zostało, że naturalnym jest dostęp sekwencyjny, a szybkość dostępu do rekordu ze zbioru zapewnia organizacja indeksowo-sekwencyjna.

Omawiając bazy danych, będące specyficzną organizacją zbiorów, jako przykłady wskazane zostały bazy hierarchiczne i najczęściej obecnie wykorzystywane bazy relacyjne. Omówione też zostały wybrane metody dostępu do baz danych i najważniejsze atrybuty baz danych.

Na zakończenie została zwrócona uwaga na „wrażliwość” wyników otrzymywanych w przetwarzaniu danych w zależności od jakości danych źródłowych – niepoprawne dane wejściowe prowadzą do błędnych wyników.

W dyskusji po referacie podjęto zagadnienie: czym różnią się dane od informacji i czy można używać tych określeń zamiennie. Dyskutowano również nad tym jakie są konsekwencje filozoficzne przyjęcia, że informacje są pierwotne w stosunku do danych lub odwrotnie.

Uczestnicy:

  1. Wojciech Zasada
  2. Robert Janusz
  3. Paweł Polak
  4. Roman Krzanowski
  5. Kamil Mamak
  6. Alicja Żyłka
  7. Ewelina Grądzka (online)

binary-1607161_1920


The first meeting of the group in new academic year took place on October, 19th. Wojciech Zasada gave a speech entitled „Data, Datasets and Databases”. He presented the historical development of the use of data in the programs – from binary coded directly into the program, through the examples of declarations of numerical data with their limitations and the resulting consequences, until now commonly used data, such as e.g. images, or sounds.

Then he presented the main types of collections, which reflect the needs of different recording repetitive data and technical possibilities of storage and access to files. He stressed that it is natural sequential access and speed of access to the record of the collection provides an organization: Indexed Sequential.

Discussing the database, which is specific organization datasets as, he gave examples of the hierarchical databases and relational ones, which are currently most popular. He gave also examples of chosen method of access to databases and the most important attributes of the databases.

At the end of the lecture he drew attention to the „sensitivity” of the results obtained in data processing, depending on the quality of source data – incorrect input lead to erroneous results.

In the discussion after the lecture they were taken some issues: What is the difference between information and data? Could we use this terms interchangeably? What are the consequences of philosophical acceptance that the information is original in relation to the data, or vice versa?

technology-512210_1920

Homo Informaticus 4.0 – informatyka, człowiek, społeczeństwo

Instytut Filozofii Uniwersytetu im. Adama Mickiewicza w Poznaniu, Zakład Filozofii Techniki i Rozwoju Cywilizacji zapraszają do Poznania w dniach 2-3 grudnia 2016 r. na ogólnopolską konferencję naukową poświęconą filozofii informatyki.

Jak deklarują organizatorzy, jednym z głównych celów czwartej edycji konferencji HOMO INFORMATICUS będzie ukazanie związków łączących informatykę z naukami humanistycznymi i społecznymi. Konferencja będzie zatem kolejną okazją do interdyscyplinarnych analiz społecznego wymiaru rewolucji informatycznej.

Zgłoszenia na konferencję można nadsyłać do 15 listopada 2016 r. na adres: lorayanz@gmail.com

Udział w konferencji jest bezpłatny.

Więcej informacji: zaproszenie

homo_informaticus_4


Institue of Philosophy of Adam Mickiewicz in Poznań with the Department of Philosophy of Technology and Civilization invite to a conference Homo Informaticus 4.0 – computing, man and society. It will be held at Poznań December 2-3, 2016.

Applications could be sent until November 15, 2016 at lorayanz@gmail.com

35. Ontologicznie zaangażowana teoria informacji – szkic grubą kreską (część 1)

Kolejne spotkanie grupy informatycznej odbyło się 20 kwietnia 2016 r. Referat pt. Ontologicznie zaangażowana teoria  informacji  – szkic grubą kreską wygłosił Krzysztof Turek. W spotkaniu uczestniczyli:

  1. Krzysztof Turek
  2. Robert Janusz
  3. Roman Krzanowski
  4. Paweł Polak
  5. Kamil Trombik

Autoreferat

Pojęcie informacji w filozofii klasycznej jest ściśle związane z pojęciem idei Platońskich oraz formy arystotelesowskiej. Z kolei istnieje ścisły związek, o ile nie identyczność, formy i struktury, skąd wynika, że kluczem do filozofii informacji jest triada pojęć: forma – struktura – informacja. Związek ten dostrzegany jeszcze w filozofii scholastycznej, nie pojawia się już w empiryzmie, który stopniowo staje się dominującym nurtem w filozofii przyrody, a później filozofii nauki; zostaje dopiero na nowo odkryty w latach 70. ubiegłego stulecia.
Pojęcie struktury stanowi podstawę dominującego obecnie nurtu filozofii nauki – realizmu strukturalnego. Istnieją dwie jego odmiany: strukturalizm epistemologiczny i ontyczny. Zwolennicy obu podejść twierdzą, że tym co jest nam dostępne w poznaniu rzeczywistości są struktury. Jednakże o ile epistemologiczny realizm stwierdza, że struktury wiążą siecią relacji wymykające się naszemu poznaniu obiekty rozumiane na wzór kantowskich rzeczy w sobie (noumenonów) , to ontyczny realizm strukturalny zaprzecza istnieniu tego typu rodzaju bytów, przypisując status istnienia jedynie strukturom.

Celem autora jest sformułowanie dobrze ugruntowanej ontologicznie teorii informacji, co pociąga za sobą konieczność zdefiniowania ontologii na gruncie której teoria ta będzie rozwijana. Punktem wyjścia w dla tego projektu jest pojęcie ontologii stosowane w informatyce, które oznacza zapis struktury pojęć danej dziedziny wiedzy. Pojęcie to autor zilustrował za pomocą prostej ontologii zespołu zdarzeń „W Tawernie u Luigiego” oraz przeprowadził dyskusję zdań, które mogą i które nie mogą być w tej ontologii zinterpretowane.

melonW kolejnym przykładzie autor przedstawił ontologię skonstruowaną na gruncie dynamiki Newtonowskiej potrzebną do poprawnej odpowiedzi na pytanie: dlaczego melon o masie 1 kg leżący na stole nie porusza się w dół, chociaż działa na niego siła grawitacji. Struktura tej ontologii zawiera około 70 elementów i tym faktem autor tłumaczył ogromne problemy studentów z poprawną odpowiedzią na to zdawałoby się proste pytanie. Przestawione przykłady wywołały żywą dyskusję i w związku z tym postanowiono przełożyć kontynuację referatu na kolejne spotkanie.

 

Prelegent zobowiązał się na nim rozwinąć swoją koncepcję ontologii opartej na strukturze domen ontologicznych stanowiących rozszerzenie pojęcia domeny ontologicznej stosowanego w informatyce oraz zinterpretowania na tej ontologii kilku pojęć związanych z pojęciem informacji.

34. spotkanie – socjologia a wnioskowanie z dużych danych

Podczas drugiego marcowego spotkania Radosław Michalski (Politechnika Wrocławska) gościnnie wygłosił referat pt. „Blaski i cienie wnioskowania z dużych danych podczas analizy procesów społecznych”.

big-data-1084656_640Podstawowe pytanie, na które poszukujemy odpowiedzi brzmi: czy posiadanie dużych danych czyni nas bardziej świadomymi w kontekście wnioskowania o procesach społecznych? Pytanie to stało się punktem wyjścia dla referatu, w którym podjęto najpierw próbę uściślenia czym są popularne ostatnio „duże dane” (Big Data), a następnie przeprowadzona została analiza metodologiczna dotycząca zastosowań informatycznych narzędzi operujących na takich danych w badaniach socjologicznych. Zagadnienie to poddane zostało interesującemu krytycznemu ujęciu.

Autoreferat

Tematyka referatu dotyczyła fenomenu wnioskowania z dużych danych, często pozyskiwanych w sposób zautomatyzowany (systemy informatyczne portali społecznościowych, operatorów telekomunikacyjnych itp.). Dysponując ogromnymi możliwościami zdobywania tego typu danych, wiele dziedzin nauki, w tym tzw. obliczeniowe nauki społeczne (ang. computational social science) bardzo chętnie wykorzystują je do wnioskowania o różnych aspektach zachowania człowieka. Należy jednak zadać sobie pytanie czy aby na pewno wnioski płynące z analizy wycinka pozyskanej rzeczywistości pozwalają na generalizowanie i uogólnianie. Celem referatu było porównanie możliwości płynących z analizy tak dużych zbiorów danych z typowym podejściem socjologicznym (ankietowanie, obserwacja a następnie wnioskowanie) oraz przedstawienie wyzwań stojących obecnie przed obliczeniowymi naukami społecznymi zanim wszyscy zachłyśniemy się dostępnością ogromnych zbiorów danych.

 

W spotkaniu uczestniczyli:

  1. Radosław Michalski
  2. Robert Janusz
  3. Paweł Polak
  4. Kamil Mamak
  5. Kamil Trombik
  6. Piotr Gumułka

Lights and Shadows of Inference from Big Data in the Analysis of Social Processes

During the second March meeting, Radoslaw Michalski (Wroclaw University of Technology), gave a guest lecture „Lights and Shadows of Inference from Big Data in the Analysis of Social Processes.”

Big-Data1

The lecture was starting with the question: is Big Data making us more aware of social processes? The speaker attempted clarify what are the recently popular Big Data. Next, he conducted methodological analysis on the application of information technology tools operating on such data in sociological research. This problem has been subjected to interesting critical approach.

The lecture concerned the phenomenon of an inference from Big Data, frequently obtained in an automated way (e.g. IT systems, social networking, telecommunications operators, etc.). In many fields of science, including the computational social sciences,  we have great possibilities to gain this type of data. They allow us to use them to apply them for various aspects of the human behaviour. However, we should ask ourself: are we sure, that conclusions from the analysis of the acquired segment of the reality allow us to generalise and summarise? The purpose of lecture was to compare opportunities arising from the analysis of such large data collections with a typical sociological approach (surveys, observation, inference). The speaker also presented challenges currently facing computational social science and the danger of the availability of large datasets.