|
Seminarium Zakładu Logiki Matematycznej - archiwum tematów z roku akad. 2007/0812.10.2007 - Anjana Kakoti Mahanta: "To study behaviour patterns of Internet users using interval superimposition". When part of a line is overwritten then the overwritten portion looks darker for obvious reason. This phenomenon is used in defining superimposition of intervals. When two intervals overlap, then using a suitable membership function we can mathematically express this by assigning the membership values of the elements in the overlapped portion double that of the elements in the other portions. Using this concept a method has been proposed to find behaviour patterns of Internet users. We assume that the visit periods of individual users are given, where a user may have several visit periods in a day. The method proposed can abstract periodic patterns such as daily pattern, weekly pattern etc in the behaviour of the individual users. 19.10.2007 - Paweł Delimata, Mikhail Moshkov, Andrzej Skowron, Zbigniew Suraj: "Inhibitory Versus Deterministic Rules". Our aim is to compare inhibitory and deterministic rules as tools for knowledge representation and as bases for classification algorithms. To this end we consider some theoretical results and results of experiments with lazy classification algorithms based on inhibitory and deterministic rules. 19.10.2007 - Grzegorz Góra, Jan Bazan: "Wnioskowanie metodą najbliższych sąsiadów w leczeniu noworodków z niewydolnością oddechową".
Autorzy badań: G. Góra, J.G. Bazan, P. Kruczek, S Bazan-Socha, A. Skowron, J.J. Pietrzyk. 26.10.2007 - Sebastian Stawicki: "On boosting of rule based classifiers". In this presentation, some results obtained from author's master thesis research will be presented. Research were focused on boosting rule based classifiers. Variations of AdaBoost algorithm were used as a framework to experiments. The main questions were: "how to build a weak classifier using a set of rules" and "if it is worthwhile to obtain a different final hypothesis instead of the final ensemble of classifiers". 9.11.2007 - Piotr Hońko: "Wykrywanie zależności w danych wielo-relacyjnych".
Duża ilość danych gromadzonych przez różnego rodzaju podmioty przechowywana
jest w bazach danych o strukturze relacyjnej. Opis danych za pomocą wielu
relacji umożliwia wyrażenie bardziej złożonych zależności zachodzących
między obiektami niż opis obiektów za pomocą języka typu atrybut-wartość.
Przechowywanie dużej ilości danych wiąże się z potrzebą wydobywania z nich
wiedzy, przy pomocy której można opisywać zależności występujące w bazie lub
dokonywać analizy nowych danych. 16.11.2007 - Jan Bazan: "Przegląd zagadnień i problemów związanych z projektowaniem i implementacją środowiska do aproksymacji złożonych pojęć czasowo-przestrzennych".
W referacie chciałbym przedstawić szereg zagadnień technicznych, które
pojawiają się przy projektowaniu i implementacji środowiska przeznaczonego
do aproksymacji złożonych pojęć czasowo-przestrzennych . Chodzi tutaj o
takie zagadnienia jak: 23.11.2007 - Andrzej Buller: "Logika dynamicznie rozmyta - klucz do sztucznego mózgu". W referacie przedstawione zostaną w zarysie założenia i wyniki projektu Artificial Brain, realizowanego w latach 2000-2006 w Advanced Telecommunications Research Institute (ATR) w Kioto. Omówiona zostanie między innymi logika dynamicznie rozmyta, w której rozmytość pojęć jest reprezentowana poprzez strumienie sprzecznych ze sobą przesłanek, a każde z możliwych zdań wynikowych stara się wyprzeć konkurenta z obszaru pamięci roboczej. Jak się okazało, robot działający w oparciu o logikę dynamicznie rozmytą może demonstrować irracjonalne zachowania, których zazwyczaj nie oczekuje się od maszyn, a które są zaskakująco podobne do niektórych zachowań zwierząt i ludzi. 30.11.2007 - Marcin Wojnarski: "Towards a flexible component-based architecture of machine learning software".
Prezentacja. 14.12.2007 - Arkadiusz Wojna: "Rseslib 3 - biblioteka z metodami uczenia maszynowego oraz narzędzia do niej". Tematem prezentacji będzie omówienie zawartości biblioteki Rseslib 3 oraz narzędzi opartych na tej bibliotece. Biblioteka została zaprojektowana w taki sposób, żeby umożliwić zarówno wielokrotne wykorzystanie zaimplementowanych struktur danych i algorytmów, jak i zbudowanie elastycznego interfejsu pozwalającego dodawać, używać i wizualizować modele danych. Omówione zostaną struktury danych, algorytmy i klasyfikatory zawarte w bibliotece, a także 2 narzędzia. Pierwsze narzędzie Qmak służy do analizy i klasyfikowania danych oraz do testowania i wizualizacji klasyfikatorów i klasyfikacji. Drugie narzędzie Simple Grid Manager umożliwia rozpraszanie obliczeń w sieci. 21.12.2007 - Andrzej Janusz: "A similarity relation in machine learning". 4.01.2008 - Marcin Wojnarski: "Nondeterministic discretization of weights improves accuracy of neural networks".
Neural networks are well-established tools in machine learning, with
proven effectiveness in many real-world problems. However, there are
still many tasks in which they perform worse than other systems. One of
the reasons is that neural networks contain thousands of real-valued
adaptive parameters, and so they have strong tendency to get overtrained
(overfitted). Thus, methods to improve their generalization abilities
are necessary. 11.01.2008 - Urszula Kuzelewska: "Pozyskiwanie wiedzy przy użyciu algorytmów grupujących z wykorzystaniem granulacji informacji". Wydobywanie wiedzy z danych (ang. data mining) jest gałęzią nauki nierozerwalnie związaną z postępem informatycznym. Znajduje ono zastosowanie w szerokiej gamie zagadnień: przetwarzanie tekstu, rozpoznawanie obrazów, predykcja, planowanie, biomedycyna i in. Z analizą danych wiąże się też dziedzina zwana obliczeniami granularnymi (ang. granular computing). Dotyczy ona systemów przetwarzania informacji podzielonych na pewne jednostki, zwane granulami. Granule stanowią obiekty posiadające cechy wspólne, takie jak podobieństwo według ustalonego kryterium czy zbieżną funkcjonalność. Teoria granulacji oferuje nowe podejście do analizy danych oparte na traktowaniu informacji jako granul o zmiennej rozdzielczości. Na różnych poziomach granulacji jest możliwe uzyskanie zupełnie innych własności danych oraz zależności pomiędzy nimi. Zaproponowany algorytm, SOSIG (ang. Self-organizing System for Information Granulation), jest przeznaczony do pozyskiwania wiedzy z baz danych. Algorytm identyfikuje granule (grupy) danych o różnej rozdzielczości w badanym zbiorze. W odróżnieniu od powszechnie stosowanych algorytmów grupujących nie ma tutaj potrzeby określania zawczasu liczby grup czy też rozkładu danych. 18.01.2008 - Piotr Kosiuczenko: "Contract-Oriented Specification of Software Systems". The paradigm of contractual specification provides a transparent way of specifying complex software systems. Contracts are often expressed in a high level language such as Object Constraint Language (OCL). OCL is used in combination with the Unified Modeling Language (UML). This approach, as any other, has its advantages and limits. Despite the fact that its main ideas were coined twenty years ago, there is still a number of research problems. In this talk, we will discuss fundamental ideas of contract-oriented system specification and the way contracts can be used in modelling of software systems. We will also briefly present our recent results concerning contract transformation and invariability specification (frame problem) in OCL. 25.01.2008 - Andrzej Skowron: "Wykrywanie modeli procesow z danych i wiedzy dziedzinowej". 29.02.2008 - Wojciech Froelich: "Causal Knowledge in the Construction of Information Granules". We discuss the problem of modeling causal dependencies within uncertain data in the context of approximate reasoning. The initial presentation of Simpson's paradox and relevant research shows the importance of the problem. We propose the incorporation of additional causal knowledge to the traditional frequency based (probability belief) methods of discovering and evaluating generalized association rules from data. The proposed approach deals with cause-effect relationships in a generalized way, abstracting of a particular uncertainty measure (rough, fuzzy or other) applied to the interpretation of rules. The assumed generality of the presented method has been accomplished by its conceptualization in the framework of approximation spaces and the information granules calculus.Thus, the additional causal knowledge plays a role of a constraint while constructing information granules, the building blocks for generalized approximation rules (granules of knowledge). Finally, we explain, the intended application of the proposed method to the selection of generalized association rules in case of the occurrence of Simpson's paradox. 29.02.2008 - Barbara Marszał-Paszek: "Funkcje przekonań w teorii zbiorów przybliżonych oraz ich zastosowania".
W referacie chciałabym przedstawić zagadnienia zawarte w przygotowywanej
pracy doktorskiej pod tym samym tytułem. Głównym celem pracy jest opracowanie metod wykorzystujących funkcje
przekonań z teorii ewidencji w teorii zbiorów przybliżonych i ich zastosowanie. 7.03.2008 - Ivo Duentsch: "Knowledge structures - Relational tools for diagnostic skill assessment". Relating empirical data (e.g. solutions to test questions) to the true knowedge state of a student is a demanding task in skill assessement. I will present some tools based on relational structures and modal operators to assist in this task. 14.03.2008 - Marcin Wolski: "Approximation Spaces, Operators and Distance Measures". In the context of approximation spaces, the operators of lower and upper approximations may be described in terms of modal-like operators. I will discuss the metric properties of approximation spaces and the corresponding modal operators. I will also present set-distance measures based on these operators, and show that they preserve the original granulations (of objects) induced by approximation spaces. 28.03.2008 - Houman Younessi: "Manhattan: Sequence Oriented Software Engineering".
Manhattan is a software engineering methodology being developed as a means
of provision of a seamless path from concept to implementation that employs
a simple yet powerful modeling grammar called Base Structure Grammar to
extract precise specifications of the sequences of interactions between
objects and components that compose the system. These objects are initially
abstract notions in the specification domain but are uniformly transformed
into design and finally implementation domain artifacts while maintaining
system and specification coherence. As such Manhattan is able to provide a
means of incorporating - ultimately in an automatic fashion - and evaluating
multiple design and architectural patterns and options at multiple levels.
It also provides a convenient means of coherent interface/hardware
co-design. Finally, sequence oriented languages are being developed (e.g.
recombinant programming) to automate many aspects of the specification and
design process. 28.03.2008 - Eugene Eberbach: "The $-Calculus Process Algebra for Problem Solving: A Paradigmatic Shift in Handling Hard Computational Problems".
The $-calculus is the extension of the pi-calculus, built around the central
notion of cost and allowing infinity in its operators. The unique feature of
the $-calculus is its support for problem solving by incrementally
searching for solutions and using cost to direct its search.
We propose the $-calculus as a more complete model for problem solving to
provide a support to handle intractability and undecidability. It goes
beyond the Turing Machine model.
We define the semantics of the $-calculus using a novel optimization method
(called the k Omega-optimization), which approximates a nonexisting
universal search algorithm and allows the simulation of many other search
methods.
In particular, the notion of total optimality has been utilized to provide
an automatic way to deal with intractability of problem solving by
optimizing together the quality of solutions and search costs.
The sufficient conditions needed for completeness, optimality and total
optimality of problem solving search are defined. A very flexible
classification scheme of problem solving methods into easy, hard and
solvable in the limit classes has been proposed. In particular, the third
class deals with non-recursive solutions of undecidable problems. The
approach is illustrated by solutions of some intractable and undecidable
problems. We also briefly overview two possible implementations of the
$-calculus. 4.04.2008 - Wojciech Froelich: "Zastosowanie Sieci Kognitywnych w Modelowaniu Procesów Decyzyjnych". Sieci kognitywne (ang. cognitive maps) stanowi jedną z metod reprezentacji wiedzy inspirowanych biologią. Mimo pewnego podobieństwa do sieci neuronowych, sieci semantycznych oraz sieci przekonań charakteryzują się unikalnymi cechami, do których należą: reprezentacja zbioru pojęć, także aproksymowanych wraz ze wzajemnymi zależnościami przyczynowo-skutkowymi, łatwość intuicyjnej interpretacji, proste mechanizmy wnioskowania oparte na obliczeniach macierzowych oraz możliwość pozyskiwania wiedzy na podstawie danych temporalnych. W referacie zostanie przedstawiony przegląd dotychczasowych prac w zakresie teorii sieci kognitywnych. Zaproponowana zostanie także propozycja formalizacji modelu sieci kognitywnej oraz oparty na niej nowy hybrydowy algorytm uczenia. W drugiej części prezentacji planowane jest omówienie zastosowania sieci kognitywnych w medycynie, w szczególności w procesie wspomagania diagnozy i terapii. 11.04.2008 - Radosław Katarzyniak: "Gruntowanie modalnego języka komunikacji w systemach agentowych".
Przedstawiony zostanie model gruntowania języka komunikacji w systemach
agentowych. Problem gruntowania symboli języków zaliczany jest do
najważniejszych zagadnień rozwiązywanych przez sztuczną inteligencję i
dotyczy sposobu, w jaki systemy inteligentne powinny wiązać generowane
symbole języka z otaczającym światem. Efektywne i poprawne gruntowanie
języka jest konieczne w zastosowaniach sztucznych systemów, w których
zachodzi konieczność współpracy i komunikacji człowieka z systemem
sztucznym. 18.04.2008 - Beata Zielosko, Marcin Piliszczuk, Arkadiusz Kocjan: "Częściowe redukty i reguły decyzyjne".
W referacie chcemy przedstawić wykorzystanie algorytmu zachłannego do
generowania częściowych reduktów i reguł decyzyjnych. Głównym celem jest
przedstawienie wyników eksperymentów dla zbiorów danych umieszczonych w
UCI Machine Learning Repository. 25.04.2008 - Dominik Ślęzak: "Modele wiedzy oparte na zależnościach pomiędzy atrybutami w systemach informacyjnych". Zaprezentowane będą wyniki teoretyczne i praktyczne związane z grupowaniem atrybutów, selekcją atrybutów przy wykorzystaniu teorii zbiorów przybliżonych, tworzeniem bazy wiedzy o zależnościach funkcyjnych pomiędzy atrybutami, a także nowe wyniki dotyczące przybliżonych sieci bayesowskich. 9.05.2008 - Anna Gomolińska: "Przybliżona spełnialność formuł: Przypadek języka deskryptorów".
Z zagadnieniem spełnialności formuł mamy do czynienia w wielu sytuacjach, na
przykład, gdy oceniamy czy dla pewnego obiektu zachodzi pewien warunek lub
zbiór warunków, gdy wyszukujemy bądź konstruujemy obiekty spełniające dane
warunki, a także gdy staramy się opisać w pewnym języku, jakie cechy posiada
dany obiekt lub zbiór obiektów. Zauważmy, że umiejętność prawidłowej oceny
czy dana formuła jest spełniona dla rozważanego obiektu jest kluczowa dla
poprawnego i skutecznego działania systemów inteligentnych. W warunkach
niepełnej i niepewnej informacji, w jakich zwykle przychodzi nam działać i
podejmować decyzje, jedno, precyzyjnie określone pojęcie spełnialności może
się nie sprawdzić. Poszukujemy więc pojęć przybliżonych. 23.05.2008 - Jan Bazan: "RS-Ecca - narzędzie komputerowe do aproksymacji złożonych pojęć z zastosowaniem teorii zbiorów przybliżonych.".
W referacie chciałbym przedstawić wstępną wersję systemu RS-Ecca (Rough Set
Environment for Complex Concepts Approximation). Jest to system wyposażony w
graficzny interfejs użytkownika napisany w jezyku Java przy użyciu bibliotek
Swing i JGraph, umożliwiający łatwą realizację różnych operacji na
zbiorach danych i wiedzy dziedzinowej (dotyczących aproksymacji złożonych
pojęć czasowo-przestrzennych).
Jako przykład zastosowania systemu RS-Ecca będzie zademonstrowane
jak można w tym systemie: 30.05.2008 - Dariusz Małyszko: "Zbiory przybliżone i obliczenia ewolucyjne w segmentacji obrazów". Tematem seminarium jest przedstawienie stanu dotychczasowych badań naukowych oraz zaproponowanie własnych opracowanych rozwiązań w zakresie zastosowania zbiorów przybliżonych oraz obliczeń ewolucyjnych w dziedzinie segmentacji obrazów oraz w szerszej perspektywie w grupowaniu danych. Segmentacja obrazów rozumiana jest jako podział obrazu na odrębne obszary, których punkty w ramach danego obszaru wykazują podobieństwo, natomiast punkty z różnych obszarów różnią się względem przyjętego kryterium podobieństwa. Zbiory przybliżone stanowią narzędzie przetwarzania informacji niepewnych i nieprecyzyjnych. Zastosowanie teorii zbiorów przybliżonych do przetwarzania i segmentacji obrazów wydaje się rozsądnym rozwiązaniem pozwalającym na uwzględnienie nieprecyzyjnych danych, jakimi bardzo często są dane obrazowe. W ramach prowadzonej pracy zostały opracowane algorytmy segmentacji obrazu z wykorzystaniem entropii przybliżonej. Opracowane rozwiązania obejmują segmentacje poprzez progowanie obrazu oraz segmentacje oparte na grupowaniu danych. Zaproponowano także ewolucyjny algorytm wielokryterialny segmentacji obrazów. Przedstawiony zostanie kierunek dalszych prac w prezentowanej dziedzinie. 6.06.2008 - Marcin Wojnarski: "Datcracker: an open data-mining platform connecting Rseslib and WEKA".
Datcracker (www.datcracker.org) is an open-source extensible data-mining
platform which provides common architecture for data processing
algorithms of various types. The algorithms can be combined together to
build data processing schemes of large complexity. |