Zaproszenie: Filozofia w informatyce IV „Filozofia wobec podstaw i zastosowań informatyki”.

Zapraszamy do udziału w IV edycji Konferencji Ogólnopolskiej pt. „Filozofia w informatyce”.

Tegoroczna Konferencja odbędzie się w dniach 23 i 24 listopada 2018 roku w Politechnice Warszawskiej (pierwszy dzień) oraz w Wojskowej Akademii Technicznej (drugi dzień).

Gościem specjalnym Konferencji będzie Profesor Raymond Turner z Wlk. Brytanii (znany filozof informatyki, autor hasła „Philosophy of Computer Science” w Stanford Encyclopedia of Philosophy).

Konferencja odbywać się będzie w języku polskim i angielskim. Planowana jest opłata konferencyjna.

Organizatorzy proszą, aby do dnia 20.06.2018 osoby już przekonane do udziału w konferencji, w tym uczestnicy jej poprzednich edycji, nadsyłać  robocze zgłoszenia (najlepiej ze wstępną  propozycją tytułu) na adres p.stacewicz@ans.pw.edu.pl.

Niebawem uruchomiona zostanie robocza strona konferencji, o czym niezwłocznie poinformujemy.

Reklamy

Nowe zajęcie filozofów: projektowanie algorytmów

 

Google_car

Google self-driving car [by Becky Stern Attribution-ShareAlike 2.0 Generic (CC BY-SA 2.0)]

Autonomiczne maszyny muszą samodzielnie podejmować różnorodne decyzje. Niektóre z decyzji nabierają znaczenia etycznego, jak choćby przy nieuniknionych wypadkach drogowych samosterujących samochodów. Stąd klasyczne przykłady dylematów etycznych stały się przedmiotem analiz w związku z projektowaniem systemów autonomicznych.
Dzięki rozwojowi technologii informatycznych filozofowie zyskali nowe zadanie: opracowanie odpowiednich algorytmów dla rozstrzygania w kwestiach o znaczeniu etycznym. To zadanie znacząco przekraczające kompetencje najlepszych inżynierów.
Można na to spojrzeć z interesującej perspektywy: najnowocześniejsza technika pomogła dostrzec wartość filozofii i to, że nie potrafimy się bez niej obejść.

Więcej na ten temat znajdziecie w interesującym artykule Philosophers are building ethical algorithms to help control self-driving cars.


 

Artificial intelligence experts and roboticists aren’t the only ones working on the problem of autonomous vehicles. Philosophers are also paying close attention to the development of algorithms facing the typical moral dilemmas…

more at: https://qz.com/1204395/self-driving-cars-trolley-problem-philosophers-are-building-ethical-algorithms-to-solve-the-problem/

48. spotkanie – Koncepcja prawdy w systemach autonomicznych

Kolejne spotkanie grupy odbyło się 10 stycznia 2018. Referat pt. Koncepcja prawdy w systemach autonomicznych wygłosił Andrzej Bielecki. Prelegent przedstawił wyniki swoich badań prowadzonych z Krystianem Jobczykiem nad prawdziwością sądów ocenianych w ramach adekwatności modelu w ujęciu cybernetycznym.

robot-3009602_1920

Referat połączył ciekawe obszary rozważań. Po pierwsze przypomniał i podsumował problem prawdy w klasycznym aletejologicznym ujęciu, które zastosowane w teorii systemów ukazuje nowe podejście do relacji sądu i rzeczywistości. Po drugie pokazał, jak podejście cybernetyczne może zanalizować i uściślić problem prawdziwości sądów.

Autorzy mówią o swoim projekcie: Systemy w których prawda jako taka jest analizowana, można podzielić na „zamknięte”, takie jak np. matematyka (istniejące „same dla siebie”) oraz otwarte, czyli takie, które działają w pewnym środowisku, które stanowi ich świat.  W systemach otwartych prawda związana jest z poznawaniem świata. Cybernetyka dostarcza narzędzi, które rzucają istotne i nowe światło na procedury poznawania przez systemy autonomiczne (w sensie cybernetycznym), tworzenia modeli świata oraz weryfikację tych modeli przez systemy autonomiczne.

W trakcie wykładu autorzy wykazywali, że prawda w systemie cybernetycznym jest dowiedziona przez adekwatność modelu działającego w kontekście zadania. W ich ujęciu to ten właśnie model – tworzony w bazie wiedzy; korelatorze – staje się nośnikiem prawdy. Kryterium prawdy w systemie cybernetycznym jest jasno wyrażone poprzez różnicę między stanem przewidzianym a stanem osiągniętym przez system. Prawdziwość  sądu może zostać zweryfikowana dzięki wykonaniu algorytmu i porównaniu stanów systemu. Autonomiczny system cybernetyczny staje się podmiotem poznawczym, który rozstrzyga problem prawdy dzięki analizie wewnętrznych stanów poznawczych.

Po referacie dyskutowano nad tym, czy cybernetyczne podejście daje wystarczające uzasadnienie dla powstawania sądów. Uczestnicy spotkania zastanawiali się też nad możliwościami autonomicznych systemów do przekształcania baz wiedzy, dochodzenia do prawdy oraz procesami, które takim działaniom towarzyszą.

 

47. spotkanie – hurtownie danych i eksploracja danych (data warehouse & data mining)

Ostatnie spotkanie w 2017 r. odbyło się  19 grudnia. Wojciech Zasada przedstawił dwie ważne idee współczesnej informatyki: hurtownię danych (data warehouse) i pojęcie eksploracji danych (data mining). Ukazany został kontekst historyczny rozwoju tych pojęć, ze szczególnym zwróceniem uwagi na ich istotę. Zaprezentowana i poddana analizie została Innona definicja hurtowni danych. Poddano dyskusji również pewne epistemologiczne kwestie związane z eksploracją danych (data mining), np. dotyczące poszukiwań modelu dla rzeczywistości opisywanej przez zgromadzone dane.


The last meeting in 2017 was December, 19th. Wojciech Zasada presented two important ideas of computer science: data warehouse and data mining. They were presented in historical development with the focus on the essence of these concepts.

Innon’s definition of warehouse was presented, and was a subject of detailed analysis. Some epistemological aspects of data mining (e.g. searching for a model of described reality) was also discussed.

data_mining

Data mining by Jason Cale (Flickr)

 

46. spotkanie – Granice informatyki

W trakcie listopadowego spotkania mieliśmy przyjemność wysłuchać wykładu profesora Adama Olszewskiego pt: Granice informatyki.

Często zastanawiamy się, co ogranicza dziedzinę informatyki oraz jak określić jej miejsce pośród innych nauk. Jest to jeden z ważkich problemów, który wymaga głębszego namysłu. Informatyka jest dyscypliną należącą zarówno do dziedziny nauk matematycznych jak i technicznych. Powodem tego rozbicia jest prawdopodobnie fakt, że przedmioty badań informatyki nie ograniczają się tylko i wyłącznie do jednego uniwersum, lecz przenikają do przestrzeni innych dziedzin. Prelegent przedstawił teorię Stuarta C. Shapiro, według której „informatyka jest nauką przyrodniczą, która bada procedury”. Olszewski przedstawił pięć rodzajów obiektów, które są przedmiotem zainteresowania informatyki: funkcje efektywnie obliczalne, algorytmy, programy komputerowe, realizacje i maszyny. Przemawiający zwrócił uwagę, że powyższe obiekty, mimo wielu powiązań, są rozłączne. Dodatkowo, dwa pierwsze są bytami abstrakcyjnymi, gdy pozostałe są realnymi obiektami naszego świata.

Referat doprowadził do dyskusji, która pokazała, w jaki sposób założenia słuchaczy kształtują ich stanowiska dotyczące informatyki. Mimo dość dobrze sprecyzowanych definicji obiektów informatyki, postrzegamy je często w odmienny sposób. Podział przedstawiony przez Olszewskiego wywołał debatę dotyczącą ontologicznego statusu obiektów informatyki oraz sposobu w jaki się ze sobą współdziałają. Pojawiło się wiele nowych pytań, więc liczymy na to, że wykład profesora będzie niebawem kontynuowany.

cube-surface-2886285_1920.jpg

During the November meeting we had the pleasure to listen to Professor Adam Olszewski’s lecture entitled: Boundaries of Computer Science.

We often wonder what are limits of Computer Science and how to place it among other fields of sciences. This is one of the valid problems required a deeper reflection. Computer Science is a discipline that belongs both to the field of mathematical and technical sciences. Probably the reason for this division is the fact that CS objects are not limited to a single universe, but rather to the space of other domains. The speaker presented Stuart C. Shapiro’s theory that „computing is a science that examines procedures.” Olszewski presented five types of objects computer science is interested to: computationally efficient functions, algorithms, computer programs, realizations and machines. The speaker pointed out that these objects – despite many connections – are separable. In addition, the first two are abstract entities, while the other are the real objects of our world.

The lecture led to a discussion which showed assumptions which formed positions on computer science of listeners. Despite that, definitions of CS objects are quite well defined, we often see them in a different way. The division presented by Olszewski triggered a debate on the ontological status of CS objects and ways they interact. There are many new questions appeared, so we hope that the lecture will be continued soon.

Zaproszenie do Poznania – Filozofia w informatyce III

pexels-photo-249580-1600x1067Mamy przyjemność poinformować, że już po raz trzeci odbędzie się ogólnopolska konferencja naukowa z cyklu Filozofia w informatyce. Tym razem konferencja odbędzie się w dniach 14-15 grudnia 2017 r.w Instytucie Filozofii Uniwersytetu im. Adama Mickiewicza w Poznaniu. Temat przewodni tegorocznego spotkania to: Informatyczny świat a filozofia.

 

Pierwsza konferencja z tego cyklu odbyła się na Politechnice Warszawskiej (2015) http://calculemus.org/fli/ , druga na Wydziale Filozoficznym Uniwersytetu Papieskiego Jana Pawła II w Krakowie (2016) http://calculemus.org/fi2/ .

Nasze spotkania mają za zadanie scalać różne polskie środowiska zajmujące się refleksją nad informatyką i służyć rozwojowi filozofii informatyki.

Termin nadsyłania zgłoszeń na konferencję: 15 listopada 2017 r. (na adres sekretarza lorayanz@gmail.com ).

Więcej informacji na oficjalnej stronie konferencji: http://calculemus.org/fi3/

 

45. spotkanie – Pojęcie a znak w świetle systemów informacyjnych

Podczas ostatniego spotkania w r.a. 2016/2017 referat pt. „Pojęcie a znak w świetle systemów informacyjnych” wygłosił prof. André Włodarczyk (Université Ch. de Gaulle – Lille i Paris-Sorbonne).

(Autoreferat)

Wielu podstawowych zagadnień semiozy nie da się wyjaśnić ani przy pomocy dwudzielnej teorii  znaku (forma:treść) ani żadnej z odmian teorii trójdzielnej (forma:treść:świat). Ponadto filozofowie treść (czyli znaczenie) traktują zamiennie: albo tylko intensjonalnie albo wyłącznie ekstensjonalnie. W oparciu o powstałą na gruncie informatyki dziedzinę badań zwaną drążeniem danych (data mining), a zwłaszcza o najnowsze podejście symboliczne (tj. od strony logiki), w przeciwstawieniu do analiz danych cyfrowych (tj. od strony statystyki), wiedzę o świecie można pozyskiwać stosując metody należące do nauk ścisłych. Jako że centralnym zagadnieniem wszelkiej wiedzy jest pojęcie, warto zapożyczyć jego definicję z teorii Analizy Pojęć Formalnych (Formal Concept Analysis – FCA), a skoro na pojęcia formalne składają się równocześnie tak ekstensje jak i intensje, nowa teoria semiozy zyskać może nie tylko na formalnej spójności, ale także na bardziej szczegółowej analizie.

Z przeprowadzonych doświadczeń (interaktywnych badań nad wyrażeniami językowymi) przy użyciu narzędzi do analizy danych nasuwa się następujący wniosek: zarówno znaki, ikony jak i wskaźniki są w pierwszym rzędzie sygnałami i – jako takie – winny być traktowane tak samo, jak wszystkie inne obiekty (szerzej: rzeczy). Dopiero przyporządkowanie pojęć semiotycznych (semionów) pojęciom nie będącym pojęciami semiotycznymi (noematom) pozwala na mówienie o znaczeniu. Zatem traktując znaki wszelkiego rodzaju jako byty same w sobie, można rozpatrywać nie tylko obiekty i relacje, lecz również wszelkie „nośniki” treści semiotycznych i ich wzajemne powiązania z tego samego punktu widzenia.

Inaczej mówiąc: tak “rzeczywiste” przedmioty jak i przedmioty “zastępcze” (sygnały) mają w naszych umysłach przyporządkowania pojęciowe (ontologiczne). Ponadto, zachodzące między jednymi a drugimi związki są czysto arbitralne. To właśnie te związki stanowią treści semantyczne, nie zaś aksjomaty logiczne, które sugerują istnienie bezpośrednich związków znaków ze światem zewnętrznym. A więc “treści semantyczne” są wynikiem niekonforemnych odwzorowań semionów w noematy, przy czym budowa tak semionów jak i noematów wymaga jakiegoś wspólnego kodu wewnętrznego (systemowego) w kontraście do poglądu, jakoby wszystkie procesy naszej myśli zachodzić miały w języku naturalnym. Warto także podkreślić, że proponowana teoria semiozy (w porównaniu z teoriami klasycznymi) zapewnia znakom (będącym składnikami semionów) więcej autonomii wobec pojęć poznawczych (noematów) oraz wskazuje na potrzebę rozwiązania niebłahego problemu, a mianowicie względnego (cząstkowego, często niewłaściwego, a nawet zupełnie błędnego) stosunku semantyki od ontologii.

Logika a pozyskiwanie wiedzy

Dla potrzeb eksploracji danych w informatyce powstaje coraz więcej logik, których punktem wyjścia są m. in.: potrzeba przedstawienia informacji, redukcja wiedzy pewnej, przybliżenie wiedzy niepewnej oraz ewaluacja uzyskanych wyników w trybie drążenia danych. Do tego rodzaju badań należą takie logiki, jak: (a) logika kontekstowa (Contextual Logic) wywodząca się z analizy pojęć formalnych (Formal Concept Analysis), (b) logika decyzyjna (Decision Logic) wywodząca się z teorii zbiorów przybliżonych (Rough Set Theory) i (c) logika rozmyta (Fuzzy Logic). Ponadto, pewne nadzieje na praktyczne zastosowania można żywić wobec logiki przepływu rozproszonej informacji (Distributed Information Flow Logic), która wyrosła na gruncie badań nad sekwentami stanowiącymi podwaliny tzw. semantyki sytuacyjnej (Situation Semantics).

Pojęcia (formalne) a znaki

Pojęcie formalne – to para ekstensji i intensji otrzymana w wyniku działania dwoistej funkcji przyporządkowania atrybutów obiektom formalnym i na odwrót (wg. definicji formalnej Rudolfa Willego – 1982 r.). W Analizie pojęć formalnych (FCA – Formal Concept Analysis) przedmioty (świata rzeczywistego i fikcji) są traktowane jak obiekty formalne. Właściwie termin obiekt formalny, stanowiąc ekstensję pojęć formalnych, jest symbolicznym “odwzorowaniem” przedmiotu (szerzej: rzeczy), ponieważ dla istot obdarzonych systemami kognitywnymi rzeczy mają jakby dwa “wcielenia”: zewnętrzne (istniejące w otoczeniu) oraz wewnętrzne (przedstawione w umyśle). Powyższe nie wyklucza ani tego, że owo „istnienie w otoczeniu” może być nieznane (nienazwane), ani też tego, że owo „przedstawienie w umyśle” może być tylko wyobrażone (mniemane). W każdym przypadku mamy do czynienia z ekstensją pojęć formalnych.

W dodatku spośród rzeczy wyróżnić jeszcze należy znaki, których obiekty formalne są ekstensjami pojęć formalnych. Tego rodzaju pojęcia proponuję nazwać semionami. Zatem należy rozgraniczyć pomiędzy

(1) pojęciami formalnymi np. języka naturalnego, w skład ekstensji których wchodzą znaki jako obiekty formalne. Na przykład “kobieta” w:

{{“kobieta”}, {część mowy: rzeczownik, rodzaj: żeński}}

a (2) pojęciami formalnymi kodu wewnętrznego (niekoniecznie mającymi wykładniki językowe), w skład intensji których wchodzą obiekty formalne odnoszące się tak do świata rzeczywistego, jak na przykład [kobieta] w:

{{[kobieta]}, {byt: ludzki, płeć: żeńska}}

jak i do świata fikcji, np. [pegaz] w:

{{[pegaz]}, {byt: zwierzę mityczne, rodzaj: skrzydlaty koń}}).

Schemat stosunku znak-pojęcie (wg A. Włodarczyka)

Schemat stosunku znak-pojęcie (wg A. Włodarczyka)

W przypadku znaków istotą rzeczy jako meta-obiektów (czyli obiektów formalnych) jest jednocześnie „zastępowanie” innych rzeczy, co nastąpić może wyłącznie w umyśle (wewnątrz systemu kognitywnego), ponieważ – na mocy konwencji – wymaga ono funkcji interpretacji, tj. przyporządkowania semionów noemom. Jest to wyraźne odejście od semiotycznego trójkąta Peirce’a, ponieważ (1°) występują tu dwa pojęcia (a nie jedno) wobec symbolu i świata oraz (2°) z uwagi na to, że pojęcia zdefiniowane jako pary formalne {{ekstensja},{intensja}} są składnikami przestrzeni wiedzy. W konsekwencji powyższych rozważań klasyczne pojęcia „formy” i „treści” są doprecyzowane, ponieważ każde z nich wchodzi w skład ekstensji pojęcia formalnego, a więc dwoistej pary {ekstensja, intensja}, a to znaczy, że ani “forma” nie ogranicza się do ekstensji ani też „treść” do intensji, przy czym „forma” znaku wymaga w pierwszym rzędzie wiedzy semiotycznej, podczas gdy jego “treść” poprzez interpretację semantyczną – wymaga wiedzy ontologicznej ugruntowanej w pojęciach formalnych dotyczących rzeczy. Nadmieńmy, że przyporządkowanie tych dwóch rodzajów pojęć ma charakter umowny (intersubiektywny), zasadza się na schematach (walencjach słownych), a więc jest słabo rekurencyjne. Przyczyną tego faktu jest to, że zarówno wszelka wiedza o otaczającym nas świecie jak i komunikacja międzyludzka są w naszych umysłach schematyczne (modularne), sieciowo rozproszone. Zatem powstająca nowa teoria znaku nabiera charakteru operacyjnego, czego brakowało semiologicznym teoriom F. de Saussure’a i Ch. Peirce’a.


Concepts and Sign in the light of Information Systems

The mathematical definition of a concept, known as formal concept, is a dual pair of extension and intension within a given context of assignments of features (“intents”) to objects (“extents”). This definition, given by R. Wille (1982), greatly inspired the data-mining community. From a linguistic point of view, applying this definition to cognitive domains makes it possible, first of all, to treat symbols in the same way as “real world” objects; i.e.: as both symbolic objects and real objects considered as extents of formal concepts within their own contexts. In classic semiotics, concepts are either “signified” parts of signs which are “inseparable” from their “signifier” parts (F. de Saussure) or “interpretants” (kind of link or function) of symbols w.r.t. objects (Ch. S. Peirce). However, within the data-mining community, studies of signs as objects are rare. The formalization of Peircean semiotics is the work of U. Priss and it should be seen as an exception. Nevertheless, the resulting theory is a reconstruction of the original one rather than a recasting proposal.

Sign-Concept Relationship Schema (by André Wlodarczyk)

Sign-Concept Relationship Schema (by André Wlodarczyk)

In the present approach, sign-objects are internalized as formal objects of the formal concepts called Semions and real objects (things) are internalized as formal objects of the formal concepts called Noema. Note that, in the examples below, while “Mädchen” is a German word, [girl] represents the formal object of a Thing.

Tentative example of a (German) Semion:

{{„Mädchen”}, {Part-of-Speech: noun, Gender: neuter}}

Tentative example of an (universal) Noema:

{{[girl]}, {Entity: human, Sex: female}}

Clearly, the meaning of an expression is the interpretation function from Semions to Noemas, while signification is the expression being the range of an inverse interpretation. Consequently, the meaning of natural language expressions is not the function between symbols and their representations but the one between symbolic concepts and cognitive concepts.

It also turns out that, in the Saussurian theory of sign, the “signifier” is “extent” and the “signified” is “intent” either of Semion or of Noema, on the one hand, and that the Peircean “interpretant” on the other hand is actually a function, not a “concept”. In other settings of the Peircean theory where the “interpretant” is a “concept”, it must be split into two.

As a concluding remark, it is important to note that in this completely new setting, man thinks in an internal conceptual code rather than in a natural language.


 

44. spotkanie – Automatyzacja pomiaru ukrytych postaw poznawczych przy pomocy pomiaru fal mózgowych oraz analizy wyrazów mimicznych – możliwości i wyzwania

Prezentacja dr. hab. Krzysztof Sołoduchy z ZNH/WCY WAT dotyczyła projektu maszyny wnioskującej służącej do badania ukrytych postaw i opinii respondentów. Ukryte postawy i opinie wykorzystywane są przez wytworzony ewolucyjnie ludzki system  poznawczy do przetwarzania informacji z otoczenia bez reprezentacji w świadomości. Mają one zatem wpływ na zachowania i podejmowanie decyzji , ale ten wpływ nie jest przez respondentów dostrzegany mimo tego, że może być  w sposób planowy kształtowany przez zastosowanie odpowiednich technik komunikacji.

Co więcej, respondenci nie mogą zgłaszać ukrytych postaw i opinii w tradycyjnych badaniach ankietowych, ponieważ nie są ich świadomi. Te postawy nie mogą zatem być wykryte, albo są wykrywane z trudem przez tradycyjne techniki socjologii deklaratywnej.

Projekt dotyczy prac B+R nad maszyną wnioskującą opartą o webowy interfejs służącą do badania ukrytych postaw i opinii respondentów opartą o detekcję wyrazów mimicznych, zmian fal mózgowych i badania ankietowe bez udziału agencji badawczych. Maszyna jest modułem systemu informatycznego, który na podstawie sygnałów wejściowych (źródłem jest respondent poddawany bodźcom) będzie wyznaczać ocenę stanu uczuć i emocji  osoby, klasyfikując go do 1 z 3 podstawowych klas reakcji: pozytywna, neutralna, negatywna.

Maszyna wnioskująca będzie miała również możliwość adaptacyjnego uczenia się w fazie operacyjnego działania. Do budowy maszyny wnioskującej wykorzystywane będą algorytmy sztucznej inteligencji: sieci neuronowe, drzewa decyzyjne i lasy losowe, modele regresji logistycznej, sieci Bayesa i metody oparte o k-najbliższych sąsiadów. Tak więc system informatyczny zakłada dostarczanie mechanizmów sztucznej inteligencji wykorzystanych do rozpoznawania wzorców i klasyfikacji stanu badanej osoby.

W wystąpieniu oraz w dyskusji pojawiły się liczne wątki dotyczące podstaw filozoficznych, neurobiologicznych i technicznych projektu. (Autoreferat)

Uczestnicy:

  1. K. Soloducha – prelegent
  2. R. Janusz
  3. R. Krzanowski
  4. K. Mamak
  5. P. Polak
  6. K. Trombik
  7. W. Zasada

40. spotkanie – Epistemologiczne znaczenie modeli matematycznych i symulacji komputerowych w poznaniu procesów subkomórkowych

Związek teorii z empirią należy do podstawowych zagadnień filozofii nauki i został poddany szczegółowej refleksji filozoficznej, w tym epistemologicznej.

W ciągu ostatnich kilkudziesięciu lat, w związku z rozwojem techniki komputerowej, symulacje numeryczne stały się powszechnie używanym narzędziem w naukach przyrodniczych. Ich epistemologiczny aspekt nie został jeszcze poddany badaniom.

Specyficzna rola symulacji komputerowych objawia się w biologii subkomórkowej, gdzie możliwości stosowania procedur eksperymentalnych i obserwacji są ograniczone. Symulacja komputerowa jest komplementarnym, w stosunku do obserwacji i eksperymentu, narzędziem epistemologicznym, wchodzącym w złożone relacje metodologiczne z narzędziami klasycznymi. Pozwala na wyciąganie wniosków w sytuacjach, gdy nie jest możliwa obserwacja lub eksperyment, w szczególności na oszacowanie niemierzalnych parametrów modelu.

Uczestnicy:

  1. Andrzej Bielecki – prelegent
  2. Józef Bremer
  3. Piotr Gumułka
  4. Robert Janusz
  5. Roman Krzanowski
  6. Paweł Polak
  7. Kamil Trombik
  8. Krzysztof Turek
  9. Aleksandra Sadowska
  10. Piotr Urbańczyk
  11. Wojciech Zasada

Epistemological significance of mathematical models and computer simulations in subcellular biology

Relations between theory and empirical knowledge belong to basic problems in philosophy of science and have been undergone detailed philosophical reflection, including epistemological aspects.

During last several dozen years, due to development of computer technology, numerical simulations became a common tool in natural sciences. Their epistemological aspects, however, have not worked out yet.

A specific role of computer simulations manifests in subcellular biology, where possibilities of performing experiments and observations are limited. Computer simulation is complementary to observation and experiment and comes into complex relations with them. It allows us to come to a conclusion if experiment or observations are impossible to perform. In particular, simulations allows researchers to estimate the parameters that cannot be measured.

Cultured Rat Hippocampal Neuron; AlexaFluor 488-Anti Beta III Tubulin and Cy3-Anti MAP2 (HM-2); 63x/1.4. Imaged with ZEISS ApoTome.2, Axiocam 702 mono and Axio Imager http://www.zeiss.com/axiocam
Sample courtesy of Stefanie Kaech & Gary Banker, OHSU, Oregon, USA (CC BY 2.0)

39. spotkanie – Technologie kognitywne: gdy informatyka wkracza w sferę poznania

Drugie spotkanie w bieżącym roku akademickim odbyło się 14 grudnia 2016 r. Referat wygłosił mgr Artur Gunia – doktorant w Zakładzie Kognitywistyki UJ. Realizuje on pracę doktorską pt.: Wzmocnienie poznawcze w kontekście transhumanistycznym. Teoria, praktyka oraz konsekwencje wpływu technologii kognitywnych na człowieka pod kierunkiem promotorów Sidey Myoo (dr hab. Michał Ostrowicki) oraz dr hab. inż. Grzegorz J. Nalepa, prof. AGH. Więcej o prelegencie i jego działalności naukowej na stronach:
https://jagiellonian.academia.edu/ArturGunia
https://wzmocnieniepoznawcze.wordpress.com/

Autoreferat

Czy komputery, systemy informatyczne i najnowsze dokonania w dziedzinie informatyki to w dalszym ciągu tylko narzędzia ułatwiające codzienną pracę, czy też wkraczają głębiej w ludzkie życie? Nieustanna rewolucja informatyczna, minimalizacja układów scalonych przy coraz większej mocy obliczeniowej oraz powszechna dostępność technologii informatycznych sprawia, że jest ona coraz bliżej człowieka, a przez to ludzka egzystencja przenika świat fizyczny ze światem wirtualnym.

W referacie próbowano ukazać technologie informatyczne, które usprawniają ludzkie władze poznawcze, symulują poznanie, bądź same poznają. Problematyka ta odnosi się do koncepcji wzmocnienia ludzkiego, która dotyczy czasowego, bądź ciągłego przekraczania ograniczeń wynikających z niedoskonałości ludzkiego ciała, zarówno metodami naturalnymi, jak i sztucznymi. Szczególnym jej przypadkiem jest wzmocnienie poznawcze, które stawia sobie za cel podniesienie wydajności intelektualnej człowieka. Wzmocnienie możliwe jest do osiągnięcia metodami biotechnologicznymi, niefarmakologicznymi oraz informatycznymi. Te ostatnie polegają na wykorzystaniu technologii informatycznych do wspierania czynności umysłowych. Szczególną grupą technik są technologie kognitywne, które aktywnie i na bieżąco wspierają proces poznawczy człowieka. I właśnie ich możliwości oraz konsekwencji ich użytkowania poświęcona była analiza podczas wystąpienia.

mechanics-bites


Cognitive technologies – when computer enters the realm of cognition

Are computers, information systems and the latest achievements in the field of computer science still only a tool to facilitate the daily work or they enter more deeply into human life? The constant information revolution, minimizing integrated circuits with ever increasing computing power and the widespread availability of information technology makes it closer to the man, and thus human existence permeates the physical world with the virtual world.

The paper attempts to show the information technologies that improve human cognitive faculties, simulate cognition, or themselves are part of cognition. This issue relates to the concept of human enhancement, which rely to temporarily or continuous overcome limitations resulting from the imperfections of the human body, both methods of natural and artificial. A special case is the enhancing of the cognition, which aims to improve the efficiency of human cognition. It is possible to achieve by biotechnological methods, non-pharmacological and with the help of information technology. That last one rely on the use of information technology to support mental activities. A particular group of techniques are cognitive technologies, which actively and continuously support the human cognitive process. The presentation shows their opportunities and consequences of usage.