Seminarium Zakładu Logiki Matematycznej - archiwum tematów z roku akad. 2004/05
8.10.2004 - Rafał Latkowski: "Tematyka planowanej pracy doktorskiej".
Podczas wystapienia zostanie przypomniana problematyka wnioskowania na
podstawie danych z niekompletnym opisem obiektow. Nastpnie zostana
zaprezentowane wyniki prac w nastepujcych kierunkach:
* Elastyczne relacje nierozroznialnoci dla problemu brakujacych
wartosci
* Wzrost zlozonosci obliczeniowej drzew decyzyjnych przy wielu
brakujacych wartosciach
Ponadto przedstawiony zostanie dalszy plan prac, wstepny konspekt rozprawy
oraz ostatnio opublikowane prace o pokrewnej tematyce.
8.10.2004 - Bożena Staruch: "Zastosowanie koproduktu w sytuacjach konfliktowych pojawiających się w systemach wieloagentowych modelowanych poprzez rozszerzenia struktur częściowych".
Przedstawiam propozycję prezentowania wiedzy agentów w systemach
wieloagentowych w postaci struktur częściowych, a wyniki działania agentów -
w postaci rozszerzeń tych struktur częściowych. Termin rozszerzenie obejmuje
zarówno sytuacje gromadzenia nowych informavji, jak i weryfiakcję posiadanej
wiedzy.
W referacie omówie problem pojawiania się sytuacji konfliktowych w tak
modelowanych systemach agentów.
Ważnym narzędziem służącym do scalania informacji i wykrywania sprzeczności
jest pojęcie koproduktu. Zaprezentuję konstrukcję koproduktu i jej
stosowanie w warunkach sprzeczności.
15.10.2004 - Barbara Dunin-Kęplicz: "Różnorodność istotą agentowości".
W świecie złożonych obliczeń komputerowych zainteresowanie przesuwa się z samodzielnych (indywidualnych) systemów komputerowych w stronę sytuacji,
gdy prawdziwa siła obliczeniowa komputerów jest wyrażona poprzez rozproszone, otwarte i dynamiczne systemy. Charakterystyka dynamicznego,
otwartego środowiska, wymaga zmiany dotychczasowego paradygmatu złożonego systemu informatycznego. W szczególności pojawia sie potrzeba, przynajmniej częściowej, autonomii takich systemów.
Systemy agentowe są odpowiedzią na tę potrzebę: agent to system informatyczny usytuowany w środowisku, zdolny do podejmowania
autonomicznych decyzji, działający w sposób elastyczny, często w rygorze czasu rzeczywistego.
Agenci są wykorzystywani w środowiskach, w których muszą wchodzić w interakcje, w szczególności współpracować, z innymi agentami lub ludźmi, którzy mogą mieć sprzeczne cele. Ta potencjalna
sprzeczność nie zwalnia z konieczności podejmowania decyzji i wykonywania akcji. Takie środowiska rozumiemy jako systemy
wieloagentowe (ang. multiagent systems: MAS).
Celem MAS jest rozwiązanie (złożonego) problemu, który (na ogół) jest poza indywidualnym zasięgiem, a następnie wykonanie (złożonej) akcji
zespołowej w środowisku. W stosunku do systemów poprzednich generacji jest to zupełnie nowa jakość. Zatem fundamentalne staje sie pytanie:
jak uzyskać tę nową jakość? Odpowiedź jest pozornie prosta: poprzez uwolnienie założeń krępujących systemy poprzednich generacji.
Jednak z perspektywy inżynierii oprogramowania generuje ona poważne wyzwania:
Jak realizować złożone, wręcz spektakularne w porównaniu z tradycyjnymi protokołami komunikacyjnymi, wzorce interakcji (kooperacja, koordynacja, negocjacje)
Jak zintegrować w jednym systemie (architekturze pojedynczego agenta) deliberatywne (ang. goal-directed) reaktywne (ang. data (event)-driven) aspekty zachowania agenta?
Jak zachować równowagę pomiędzy wnioskowaniem a komunikacją w MAS w kontekście złożonych i zróżnicowanych wzorców zachowań agentów?
Zawężając perspektywę do systemów BDI (ang. beliefs, intentions, desires systems), można prześledzić dwa przykłady realizacji
powyższych wyzwań. Pierwszy dotyczy tzw. strategii intencji, odpowiadających na pytanie: kiedy i jak agent może odpowiedzialnie
porzucić swoje intencje? Zamiast tradycyjnych deadlines o ograniczonej sile wyrazu, zastosowano tu subtelne warunki wyrażające
jednocześnie deliberatywne i reaktywne aspekty zachowania agenta. Scharakteryzowano je w kategoriach logik wielomodalnych i temporalnych.
Drugi przykład dotyczy kolektywnego planowania: zamiast pobierania uproszczonego planu z predefiniowanej biblioteki planów, kolejne etapy
tworzenia od podstaw wspólnego planu są zrealizowane przy użyciu złożonych, sformalizowanych dialogów. Metody ich modelowania są obecnie gorącym problemem badawczym.
Jak widać różnorodność problemów występujących w MAS wymaga częstego sięgania do dorobku innych dziedzin nauki: logiki,
filozofii, lingwistyki, socjologii, biologii, ekonomii i innych.
15.10.2004 - Jan Bazan: "Narzędzia do wizualizacji danych w systemie RSES".
Podczas referatu chciałbym przedstawić narzędzia do wizualizacji danych
dostępne w systemie RSES, które w ostatnim czasie zostały znacząco
rozwinięte. Narzędzia te dotyczą głównie wizualizacji informacji zawartych w
tablicach danych (histogram wartości wybranego atrybutu, porównywanie wartości dwóch
atrybutów oraz kilku atrybutów, histogramy wartości wybranego atrybutu we
wzorcach oraz wizualizacja reguł krzyżowych). Dostępne są także
narzędzia wizualizacji informacji o klasycznych reduktach i regułach
decyzyjnych, o których także chciałbym opowiedzieć.
5.11.2004 - Piotr Hońko: "Zastosowanie podobieństwa przykładów docelowych w indukcyjnym programowaniu logicznym".
W indukcyjnym programowaniu logicznym dane, jak również generowane z nich reguły wyrażone
są w języku logiki pierwszego rzędu. Metoda prezentowana w referacie dokonuje opisu i klasyfikacji
przykładów docelowych nie na podstawie reguł pierwszego rzędu, ale na postawie reguł decyzyjnych
wyrażonych w języku typu atrybut-wartość. Reguły generowane są z tablicy decyzyjnej utworzonej
przy zastosowaniu miar podobieństwa przykładów docelowych. Przykłady porównywane są na podstawie dotyczących ich literałów
należących do wiedzy dziedzinowej.
5.11.2004 - Dominik Ślęzak: "Redukty asocjacyjne".
12.11.2004 - Wit Jakuczun: "Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów".
W moim wystąpieniu opowiem o opracowanej przeze mnie metodzie
klasyfikacji sygnałów. Metoda ta jest oparta na algorytmie
"lifting scheme" konstruowania falek oraz na tzw.
"Support Vector Machines" autorstwa Vapnika. Połączenie tych
dwóch podejść pozwala na budowanie klasyfikatorów opartych na
małym wycinku danych mających jednocześnie wysoką jakość
klasyfikacji. Oprócz wyników eksperymentalnych przedstawię
też próbę oszacowania wymiaru VC tak tworzonych
klasyfikatorów.
Prezentacja w formacie PostScript (364 KB).
Materiały dodatkowe:
http://prioris.mini.pw.edu.pl/~wit/prace/atrybuty.pdf
http://prioris.mini.pw.edu.pl/~wit/prace/jakuczun04discriminating.pdf
12.11.2004 - Michał Mikołajczyk: "Reguły decyzyjne - w poszukiwaniu uproszczeń".
Dyskusja na temat rozbudowy funkcjonalności i języka opisu reguł
decyzyjnych. Głównym celem prezentowanych rozważań jest osiągnięcie możliwie
zwięzłego, a co za tym idzie - czytelnego opisu klas decyzyjnych.
Szczególną uwagę chcę poświęcić przekształceniom zbioru wyliczonych już
reguł bez odwoływania się już do danych z których reguły te powstały. Wiąże
się to z problemem oszacowania jakości nowo powstałych reguł, oraz
stworzeniem właściwej miary podobieństwa reguł.
Kolejnym zagadnieniem związanym z tym tematem są hierarchiczne struktury
regułowe. Oferują one możliwość tworzenia ogólnych reguł decyzyjnych
zachowując jednocześnie bardziej szczegółowe informacje. Jak mogłyby one
wyglądać i jak można by oceniać ich jakość - to pytania które chciałbym
postawić i przedstawić propozycję rozwiązania dla części z tych zagadnień.
19.11.2004 - Mikhail Moshkov: "Restricted Linear Information Systems".
In the presentation a class of infinite information systems will be
considered for each of which there exist polynomial algorithms for
optimization of decision trees solving problems over the considered
information system. As complexity measures it is possible to use depth,
average depth or number of nodes. Problems must be represented in the form
of decision tables.
19.11.2004 - Marcin Wojnarski: "Lokalizacja obiektów metodą kontrastów obszarowych i AdaBoost".
W 2001 roku P.Viola i M.Jones zaproponowali metodę lokalizacji obiektów
na obrazach, wykorzystującą tzw. kontrasty obszarowe, czyli bardzo
proste filtry, dające się obliczyć w bardzo krótkim czasie przy użyciu
obrazu całkowego. Za pomocą algorytmu AdaBoost, z rodziny wszystkich
możliwych kontrastów obszarowych (słabych klasyfikatorów) wybierany jest
niewielki podzbiór, najlepiej opisujący poszukiwane obiekty. Z takiego
podzbioru budowany jest mocny klasyfikator. Aby znacznie przyspieszyć
działanie końcowego klasyfikatora, mocne klasyfikatory dodatkowo łączone
są w kaskadę. Dalsze stopnie kaskady prowadzą analizę jedynie tych
danych, które nie zostały odrzucone na wcześniejszych stopniach, co
pozwala dramatycznie zmniejszyć czas lokalizacji - np. możliwa jest
lokalizacja twarzy w czasie rzeczywistym, z szybkością 15 klatek na
sekundę, z bardzo wysoką trafnością odpowiedzi.
W referacie zaprezentuję podstawowy algorytm Violi i Jonesa oraz
przedstawię możliwe modyfikacje: rozszerzenie rodziny słabych
klasyfikatorów oraz przyspieszenie algorytmu uczenia.
Więcej informacji:
- Paul Viola, Michael Jones. Robust Real-time Object Detection (2001)
- Prezentacja z seminarium (PostScript, .zip, 609 KB)
26.11.2004 - Wojciech Jaworski: "Analiza metod szacowania błędu klasyfikatorów".
Referat poświęcony będzie analizie metod Hold-Out Estimate i
Cross-Validation. Przedstawione zostaną twierdzenia określające związek
wartości błędu wyznaczonego przez powyższe metody z rzeczywistą wartością
błędu klasyfikatora. Pozwalają one oszacować z góry ilość próbek potrzebną,
aby wyznaczyć błąd klasyfikatora z określoną dokładnością i wiarygodnością.
W przypadku metody Hold-Out i zerojedynkowej funkcji straty
opisany zostanie algorytm pozwalający wyznaczyć minimalną ilość próbek.
Prezentowane oszacowania będą niezależne od wyboru algorytmu użytego do
stworzenia klasyfikatora oraz ilości posiadanych przez próbki atrybutów.
Materiały:
- Prezentacja z seminarium (PDF)
Dane liczbowe:
- wartości delta i m we wzorze P(|Err(f)-Errz(f)| < 0.1) > delta,
- najmniejsze m, dla którego spełniony jest w nierównosci Hoefflinga warunek P(Err(f)-Errz(f) > epsilon) < delta,
- najmniejsze m, dla którego spełniony jest dla 0-1 funkcji straty warunek P(Err(f)-Errz(f) > epsilon) < delta,
- najmniejsze m, dla którego spełniony jest dla 0-1 funkcji straty warunek P(|Err(f)-Errz(f)| > epsilon) < delta
3.12.2004 - Feliks Kurp: "Wspomaganie procesów decyzyjnych w ogólnym modelu opisu dynamiki systemów".
Zaprezentowana zostanie koncepcja ogólnego modelu opisu dynamiki systemów,
wykorzystująca pewne własności gramatyk generacyjnych, oraz wyrażenia regularne.
Następnie rozważana będzie optymalizacja problemów decyzyjnych, oparta o pojęcie
wyrazistości stanów w systemie informacyjnym, opisującym zbiór stanów dopuszczalnych,
a także nowe podejście do oceny istotności atrybutów opisujących stany.
Główną motywacją podjętych badań są problemy komputerowego wspomagania decyzji
w złożonych sytuacjach decyzyjnych, na przykład ekonomicznych, oraz prognozowanie.
10.12.2004 - Nguyen Tuan Trung: "Omówienie tematyki przygotowywanej rozprawy doktorskiej".
17.12.2004 - Mikhail Ju. Moshkov: "On decision tables with many-valued decisions".
In the paper a generalization of the notion of decision table is studied. In
an ordinary decision table each row is labeled by a decision. In a decision
table with many-valued decisions each row is labeled by a nonempty finite
set of decisions. For a given (but unknown for us) row we must find a
decision from the set attached to this row using values of attributes
corresponding to columns of the table. Bounds on complexity and algorithms
for construction of decision trees and reducts for generalized decision
tables are considered.
17.12.2004 - Jakub Wróblewski: "Strategie obliczania reduktów zwykłych i przybliżonych".
Tematyka wystąpienia obejmuje ostatnie prace badawcze i implementacyjne związane z algorytmami wyznaczania reduktów, a w szczególności:
- wykorzystanie rdzenia (core) i struktur pokrewnych;
- kierunki przeszukiwania przestrzeni podzbiorów atrybutów, w szczególności szukanie wszystkich reduktów;
- wyniki eksperymentów związanych z reduktami przybliżonymi.
Prezentacja z seminarium. (PostScript, 600 KB)
7.01.2005 - Nguyen Hung Son: "An Approach to Mining Data with Continuous Decision Values".
We propose a novel approach to discover useful patterns from
ill-defined decision tables with a real value decision and nominal
conditional attributes.
We illustrate our consideration on the
problem of searching for a combination of ligand-receptor sites
resulting in highest affinity binding. This problem occurs in
proteochemometrics study of molecular recognition.
The proposed solution is based on a two-layered learning algorithm.
In the first layer the preference relation between objects is
approximated from the data. In the second layer the approximated
preference relation is used to create three applications: (1) to
learn a ranking order on a collection of combinations, (2) to predict
the real decision value, (3) to optimize the process of searching for
the combination with maximal decision.
7.01.2005 - Dominik Ślęzak: "Interactive SOM-Based Gene Grouping: An Approach To Gene Expression Data Analysis".
We propose a new approach to clustering and visualization of the DNA
microarray based gene expression data. We implement the
self-organizing map (SOM) framework handling similarities and
dissimilarities between genes in terms of their expression
characteristics. Genes occurring as attributes (columns, features)
in the gene expression data table correspond to the objects being
located in the SOM grid. Various distances between such objects are
tested to capture the nature of dependencies between
genes-attributes. The resulting algorithmic toolkit is enriched with
GUI enabling the users to interactively support the SOM-optimization
process. Preliminary calculations and consultations with biomedical
experts positively verify applicability of our method.
14.01.2005 - Arkadiusz Wojna: "Wnioskowanie przez analogię w konstrukcji klasyfikatorów - prezentacja rozprawy doktorskiej".
14.01.2005 - Piotr Synak: "Spatio-Temporal Approximate Reasoning over Complex Objects".
We discuss the problems of spatio-temporal reasoning
in the context of hierarchical information maps and approximate
reasoning networks (AR networks). Hierarchical information maps
are used for representations of domain knowledge about objects,
their parts, and their dynamical changes. AR networks are patterns
constructed over sensory measurements and they are discovered from
hierarchical information maps and experimental data. They make it
possible to approximate domain knowledge, i.e., complex
spatio-temporal concepts and reasonings represented in
hierarchical information maps.
21.01.2005 - Marcin Dziubiński: "Negocjacje w systemach wieloagentowych".
Na seminarium mówić będę o możliwości wykorzystania metodologii reprezentacji i inżynierii wiedzy CAKE do negocjacji w systemach wieloagentowych.
Założenia leżące u podstaw systemów wieloagentowych - autonomiczność agentów (m. in. pełna kontrola nad ich stanem wewnętrznym i wykonywanymi akcjami), konieczność działania w dynamicznym i złożonym środowisku i wynikająca stąd niepełna wiedza o świecie, działanie w otoczeniu wielu innych agentów - stwarzają konieczność istnienia mechanizmu pozwalającego na rozwiązywanie konfliktów pojawiających się między agentami. Mechanizmem tym są negocjacje.
Jednym z podejść do negocjacji jest oparcie ich na planowaniu. W ramach negocjacji agenci szukają akceptowalnego dla wszystkich stron celu oraz planu, który pozwoli ten cel osiągnąć. W podejściu tym ważne jest umożliwienie agentom zmiany przekonań oraz celów kontrnegocjatorów. Możliwość tą daje argumentacja. Niezbędna jest tu również bezpośrednia reprezentacja przekonań agentów.
W ramach metodologii CAKE zaproponowano sposób reprezentacji wiedzy agentów, który uwzględnia możliwość istnienia wiedzy niepełnej i przybliżonej, posiadania przez agentów wiedzy o charakterze domniemań oraz konieczność używania tej wiedzy w sposób wydajny obliczeniowo.
18.02.2005 - Nguyen S. Hoa: "Automatic sunspot recognition and classification".
This paper describes automatic sunspot recognition and classification from satellite images. The classification scheme attempted was the seven-class
Modified Zurich scheme. Daily images of the solar disk were taken from the NASA SOHO satellites MDI instrument and sunspots extracted using image processing techniques.
Sunspot classification has been described by a set of rules containing many composite and unprecise concepts, which can can not be measured directly from
solar images. The obstacle is uncertainty of sunspot measures. By different seasons, e.g., of bad weather, of continuous movement of sunspots on the sun surface or by a reason
of sun and earth rotation, sometime images of the solar disk are blurred. Therefore, many characteristics of sunspots can not be exactly determined from
digital images. On the other hand, the learning algorithms that used only vision properties to predict classification scheme had showed to be
inadequate. To improve the classification accuracy, it is necessary to embed the domain knowledge into the learning process.
This paper presents a learning sunspot classification algorithm based on rough sets, rough mereology and hierarchical learning approach. The proposed method makes
approximating of such complex concept likes sunspot classification scheme possible by using domain knowledge in the form of concept ontology.
25.02.2005 - Dominik Ślęzak: "Reprezentacja złożonej wiedzy wydobywanej z danych medycznych".
4.03.2005 - Wojciech Froelich: "Agentowo-ewolucyjny model pozyskiwania wiedzy".
Podstawowa idea proponowanego modelu polega na wykorzystaniu podejścia agentowego w celu realizacji hybrydowej metody reprezentacji i pozyskiwania wiedzy, zgodnie z którą proces uczenia ze wzmocnieniem
pojedynczego agenta optymalizowany jest metodą ewolucyjną na poziomie całej populacji. W oparciu o powyższą koncepcję, opracowano model formalny systemu ułatwiający analizę procesów uczenia zachodzących na różnych poziomach
abstrakcji.
W proponowanym modelu, autonomiczny agent to system działający w środowisku, który obserwuje w sposób ciągły to środowisko i wykonuje w nim akcje w celu realizacji określonego zadania. Środowisko reprezentuje rozwiązywany problem
i równocześnie umożliwia wzajemną obserwację agentów. W środowisku wyróżnić można obiekty będące źródłem informacji dla systemu uczącego się. Obiekty te mogą podlegać oddziaływaniu, wtedy proces pozyskiwania wiedzy powiązany jest
z ciągłą wzajemną interakcją między środowiskiem i systemem. Zadanie stawiane przed systemem uczącym się może dotyczyć rozpoznawania cech obiektów, relacji między nimi, względnie polegać na określeniu skutecznej
strategii sterowania obiektami.
Rozważany problem dotyczy przypadku, gdy model środowiska, z którego ma być pozyskana wiedza, nie jest całkowicie znany. W tej sytuacji, proces pozyskiwania wiedzy odbywa się poprzez realizację ciągu decyzji agenta,
które w zamierzeniu mają doprowadzić do osiągnięcia celu, zaś ich efekty pośrednie (zmiany stanu środowiska) dostarczają informacji o jego własnościach. Tak więc, nawet wtedy gdy cel nie zostaje osiągnięty,
działania agenta dostarczają informacji wynikających z obserwowanej reakcji środowiska.
W proponowanym modelu środowisko reprezentowane jest przez zbiór zmieniających się w czasie sygnałów. Sygnały środowiska można interpretować jako a-priori nieznane, lecz mierzalne wielkości charakteryzujące zachodzące
w nim procesy (zjawiska). Zbiór sygnałów środowiska jest źródłem informacji dla wszystkich agentów. Każdy sygnał środowiska może zmieniać się w czasie w sposób dyskretny lub ciągły. Pomiędzy poszczególnymi sygnałami mogą
zachodzić zależności czasowe i przestrzenne.
Agenci rozmieszczeni w środowisku tworzą zbiór, który nazywany jest populacją wieloagentową. Populacja początkowa agentów generowana jest w oparciu o wiedzę eksperta (w roli eksperta może występować użytkownik lub
pewien program nadrzędny) oraz zostaje wyposażona w losowy zbiór cech, do których zaliczyć można ich rozmieszczenie w środowisku. Każdy agent podejmuje w środowisku działania, których konsekwencją mogą być zmiany
obserwowanych sygnałów. Działania agenta mogą oznaczać realizację pojedynczych akcji lub ich sekwencji. Zakłada się reaktywny sposób działania agentów, co oznacza, że agenci nie prowadzą obliczeń matematycznych oraz
sterowanej algorytmicznie analizy historii swoich obserwacji i akcji, planowanie w znaczeniu budowania i oceny schematów przyszłych działań również nie jest prowadzone.
Na poziomie pojedynczego agenta realizowany jest proces uczenia ze wzmocnieniem. Pozyskiwana wiedza reprezentowana jest w formie zbioru prostych reguł sterujących działaniami agenta na podstawie uzyskanych
obserwacji. Uczenie ze wzmocnieniem prowadzi do kreacji oraz selekcji w bazie wiedzy reguł umożliwiających realizację zadań przez agenta.
Warunkiem skutecznego uczenia agenta jest optymalizacja szeregu posiadanych przez niego cech (parametrów), reprezentowanych przez wektor genotypu. Cechy osobnicze agenta, mogą dotyczyć między innymi funkcji obserwacji (np.
czułość sensorów na zmiany sygnałów środowiska) oraz parametrów procesu decyzyjnego. Optymalizacja genotypu agenta przebiega na poziomie populacji z wykorzystaniem procesu ewolucji wieloagentowej.
Pierwszym obszarem zastosowania proponowanego modelu było zadanie poszukiwania sekwencji decyzyjnej w dynamicznie zmieniającym się środowisku. W przypadku ogólnym, dla zadań typu pościgu i ucieczki (ang. Evasive
Manouvers - EM), w przestrzeni wielowymiarowej znajduje się jeden lub więcej poruszających się obiektów typu "ścigający" (ang. pursuer), których zadaniem jest złapanie jednego obiektu typu "uciekający" (ang. evader). Obiekt
uciekający posiada cel przeciwstawny polegający na uniknięciu złapania (ang. catching). Problem pościgu i ucieczki jest pewnym reprezentantem procesów przebiegających w przestrzeni, w których występują podmioty posiadające
przeciwstawne cele.
Pozyskiwanie wiedzy z obrazów graficznych przyjęto jako drugi obszar realizacji proponowanego modelu. Problem dotyczy identyfikacji oraz lokalizacji lokalnych cech charakterystycznych w obrębie obrazów.
Rozpoznawanie obrazów linii papilarnych oparte jest często na poszukiwaniu cech charakterystycznych (nazywanych punktami "minutiae") lub lokalnych nieregularności w przebiegu linii papilarnych. Mogą to być zakończenia
linii, połączenia lub inne rzadziej występujące na obrazie klasy punktów charakterystycznych. Znajomość położenia tych cech jest zadaniem wstępnym przy porównywaniu różnych odcisków linii papilarnych. Jedną z propozycji,
dotyczących zastosowania paradygmatu agentowości w zadaniu rozpoznawania cech charakterystycznych obrazu jest koncepcja agenta eksplorującego obraz.
Można wymienić następujące elementy oryginalności proponowanego modelu.
Na poziomie koncepcji: hierarchiczny, hybrydowy model pozyskiwania wiedzy oparty na paradygmacie systemów wieloagentowych, wykorzystanie metody uczenia ze wzmocnieniem oraz metody ewolucyjnej.
Na poziomie realizacji: opracowany model umożliwił implementację skutecznych rozwiązań wybranych problemów z zakresu pozyskiwania wiedzy. Wybrane do realizacji problemy, znacznie odróżniają się od siebie pod
względem specyfiki realizowanego zadania, wykazując tym samym określony stopień uniwersalności proponowanego modelu.
W ramach kontynuacji badań przewiduje się dalsze doskonalenie proponowanego modelu pozyskiwania wiedzy oraz eksperymenty dotyczące innych jego zastosowań.
11.03.2005 - Arkadiusz Wojna: "Prezentacja rozprawy doktorskiej".
18.03.2005 - Jan Bazan: "Metody konstruowania złożonych klasyfikatorów hierarchicznych w oparciu o zbiory danych i wiedzę dziedzinową".
W trakcie mojego referatu, chciałbym skupić się na trzech następujacych zagadnieniach:
1. Reprezentacja wiedzy dziedzinowej w celu użycia jej do polepszania jakości i efektywności klasyfikatorów (konstrukcja i zastosowanie ontologii pojęć).
2. Metody konstruowania klasyfikatorów w oparciu o dane zbiory danych i ontologie pojęć.
3. Metody konstruowania klasyfikatorów hierachicznych pozwalających na wykrywanie wzorców zachowań obiektów lub grup obiektów zmieniających się w czasie w oparciu o dane zbiory
danych i ontologie pojęć.
1.04.2005 - Mikhail Moshkov, Marcin Piliszczuk, Beata Zielosko: "On partial covers, reducts and decision rules".
In the presentation we consider results of theoretical and experimental investigations in the following directions:
- precision of approximate polynomial algorithms for minimization of partial covers, reducts and decision rules
- unimprovable upper and lower bounds on minimal complexity of partial covers, reducts and decision rules which can be obtained based
on the information about the greedy algorithm work
- new bounds on precision of greedy algorithm work
- results of greedy algorithm work for almost all set cover problems and information systems
15.04.2005 - L.A. Zadeh: "Toward a General Theory of Uncertainty". (sesja specjalna w Instytucie Badań Systemowych)
22.04.2005 - A. Wojna: "Wnioskowanie przez analogię w konstrukcji klasyfikatorów - prezentacja rozprawy doktorskiej".
22.04.2005 - W. Jaworski: "Szacowanie błędu klasyfikatorów: odsłona druga".
Referat będzie dotyczyć szacowania błędu klasyfikatorów za pomocą metody
Hold-Out Estimate dla zerojedynkowej funkcji straty. Przypomnę i rozszerzę
wyniki przedstawione 26.11.2004. Zaprezentuję nowe oszacowanie, które
pozwala w optymalny sposób wykorzystać informację zawartą w błędzie
empirycznym klasyfikatora. Pokażę w jaki sposób testowanie wielu
klasyfikatorów za pomocą tej samej próbki wpływa na jakość oszacowania
oraz przedstawię wynikające z oszacowań strategie selekcji i oceny
klasyfikatorów.
22.04.2005 - M. Sapiński: "Ewolucyjne metody odkrywania reprezentacji danych dla zadania klasyfikacji".
Referat poświęcony będzie zagadnieniu poszukiwania dobrych reprezentacji danych
dla zadania klasyfikacji. Znalezienie właściwej reprezentacji jest często kluczowe
dla osiągnięcia dobrych wyników. Może również w istotny sposób ułatwić
analitykowi danych zrozumienie modelowanej zależności.
Przedstawimy stworzony przez nas algorytm ERF (ang. Evolutionary
Representation Finder), który w ewolucyjny sposób poszukuje dobrych
reprezentacji dla postawionego problemu. Język w którym algorytm poszukuje
odpowiedniej reprezentacji jest określany przez użytkownika algorytmu
umożliwiając precyzyjną specyfikację obszaru poszukiwań i łatwą interakcję
z systemem. Takie podejście jest atutem algorytmu ponieważ wydajne poszukiwanie
właściwych przekształceń danych bez jakichkolwiek założeń jest w zasadzie niemożliwe.
Algorytm ERF posiada mechanizmy umożliwiające ewolucję reprezentacji na
dwóch poziomach - poziomie pojedynczych cech oraz całych reprezentacji
na które składają się poszczególne cechy. Zapewniony został mechanizm
pozwalający na budowę złożonych reprezentacji dzięki podzieleniu procesu
na etapy w obrębie których powstają cechy o coraz wyższym poziomie skomplikowania.
Końcowy wybór najlepszej reprezentacji może być dokonany na podstawie
obiektywnych miar jakości klasyfikacji lub przez użytkownika na podstawie
analizy procesu ewolucji.
Zostanie przedstawione działanie algorytmu ERF dla trzech znanych problemów:
balance-scale, waveform oraz monk2 dla których algorytm znajdował dobre
reprezentacje co ma znaczący wpływ na jakość klasyfikacji. Osiągnięte wyniki
porównane zostanie z wynikami otrzymywanymi przez inne popularne metody.
29.04.2005 - W. Jaworski, A. Powałka, J. Tyszkiewicz: "Analiza tekstów starożytnych - Sumerowie".
6.05.2005 - N.T. Trung: "Transfer percepcji w uczeniu maszynowym".
20.05.2005 - Mikhail Moshkov: "On some results for the most part of binary decision tables".
We evaluate:
a) the fractions of tables which are rough
b) the fraction of tables with nonempty core
c) the fraction of tables which have long reducts
20.05.2005 - Marcin Dziubiński: "Zastosowanie negocjacji w obliczeniach gridowych".
Na seminarium przedstawię przykład zastosowania negocjacji w
obliczeniach gridowych.
Mianem obliczeń gridowych określa się obliczenia dokonywane w
rozproszonym, heterogenicznym (pod względem sprzętu, oprogramowania i
dostępności zasobów) i otwartym (ilość i dostępność zasobów zmienia się
w sposób z góry nieokreślony) środowisku. W przypadku takich obliczeń
podstawowym problemem, obok problemów związanych z zapewnieniem
bezpieczeństwa i prywatności, jest problem zarządzania realizacją
obliczeń. Wiąże się to z potrzebą alokacji odpowiednich zasobów,
monitorowania przebiegu obliczeń i reagowania na sytuacje wyjątkowe (np.
awarie). Obliczenia powinny być przeprowadzone z zapewnieniem wskazanego
przez użytkownika poziomem jakości usługi, na którą składa się nie tylko
czas, ale i koszt oraz inne parametry związane z konkretnym
zastosowaniem. Osobnym problemem jest zapewnienie właściwej dystrybucji
zasobów w skali globalnej.
Charakterystyka obliczeń gridowych sprawia, że są one atrakcyjnym
zastosowaniem dla metod wytworzonych w kontekście systemów
wieloagentowych, w tym negocjacji, które pozwolą na elastyczne
zapewnienie możliwie dobrej alokacji zasobów.
W ramach seminarium przedstawię również propozycję aplikacji, którą
zamierzam przenieść do środowiska gridowego i użyć jako podstawy dla
badań nad negocjacjami w systemach wieloagentowych. Aplikacją tą jest
modelowanie zachowania zanieczyszczenia ropopochodnego na morzu, która
zostanie zrealizowana przy współpracy z Instytutem Morskim w Gdańsku.
3.06.2005 - Magdalena Kacprzak: "Dowodzenie własności systemów wieloagentowych przy użyciu logiki RA-MAS".
Celem pracy jest opracowanie oryginalnej formalizacji systemów
złożonych z wielu rozproszonych procesów, pracujących w
sposób współbieżny, zwanych systemami wieloagentowymi.
Zaproponowany system dedukcyjny oparty jest na elementach logiki
temporalnej czasu rozgałęzionego oraz logiki epistemicznej i
logiki algorytmicznej. Zastosowane operatory i modalności
umożliwiają porównywanie na grucie tego samego języka
formalnego różnych systemów wieloagentowych. Zaproponowana
logika dostarcza również narzędzi do modelowania i
charakteryzowania cech mentalnych agentów oraz różnych
sposobów współdziałania i kooperacji, a w szczególności
rozpoznawania sytuacji konfliktowych i metod ich rozstrzygania.
Przyjętym modelem semantycznym jest rozszerzona struktura
Kripkego. Stan globalny tej struktury składa się ze świata,
opisującego środowisko oraz ciągu stanów mentalnych agentów.
Stan mentalny agenta tworzą dwa zbiory formuł reprezentujące
przekonania i cele. Należy zaznaczyć, że zarówno przekonania
jak i cele zależą nie od świata, w którym agent się znajduje,
ale od wcześniej zdobytych przez niego doświadczeń.
Głównym wynikiem pracy jest przedstawienie adekwatnego i
pełnego systemu formalnego do specyfikowania systemów
wieloagentowych i do wnioskowania o ich własnościach.
Zdefiniowany został język umożliwiający specyfikację
zachowań i właściwości agentów oraz jej weryfikację.
Zdefiniowano też adekwatną semantykę dla tego języka. Dowód
twierdzenia o pełności wzorowany jest na metodzie zaproponowanej
dla logiki algorytmicznej. Oparty jest on na kombinacji
algebraicznej metody zastosowanej przez H. Rasiową i R.
Sikorskiego dla logiki klasycznej z metodą Kripkego użytą dla
logiki modalnej.
10.06.2005 - Ivo Düntsch: "Rough relation algebras revisited".
Rough relation algebras have been introduced by Comer (1993) as an
algebaic framework to study rough approximations of binary relations; they
were further studied by Düntsch (1994). In the present work, we revisit
this class and study its properties in relation to relation algebras.
Furthermore, we prove several theorems for simple rough relation algebras.
It may be mentioned that the content of the talk is algebraic in nature,
and, apart from motivating the investigation of these algebras, rough sets
do not play a significant role.
|