analityczne
wyzwania
konferencja naukowa

  • data

    12 grudnia

  • data

    Kraków

wiedza / doświadczenie / inspiracje

Konferencja „Analityczne wyzwania” jest wydarzeniem powołanym do życia z inicjatywy użytkowników oprogramowania z rodziny IBM SPSS i Predictive Solutions, reprezen-
tujących środowisko akademickie. Celem Konferencji jest integracja ludzi nauki wokół problematyki przetwarzania i analizy danych. Spotkanie to ma tworzyć szeroką platformę współpracy dla pracowników naukowych do wymiany doświadczeń.

Patronat nad wydarzeniem objęli prof. dr hab. inż. Krzysztof Boryczko, Dziekan Wydziału Informatyki, Elektroniki i Telekomunikacji AGH i Piotr Komornicki, Prezes Predictive Solutions.

Do udziału w konferencji zapraszamy pracowników naukowych i doktorantów polskich uczelni i instytutów badawczych. Tematyka konferencji będzie dotyczyła zagadnień związanych z analizą danych w różnych dziedzinach nauk:

• humanistycznych i społecznych
• ekonomicznych
• biologicznych i naukach o Ziemi
• technicznych
• medycznych
• matematyce, fizyce i chemii
Wybrane przez Komitet Naukowy referaty zostaną zaprezentowane w dwóch równoległych sesjach tematycznych. Pozostali uczestnicy konferencji będą mogli zaprezentować wyniki swoich badań w sesji posterowej.


Dla pracowników i doktorantów uczelni i instytutów badawczych udział w konferencji jest nieodpłatny.




Prelegenci – praktycy, eksperci analizy danych

  • Zaawansowane narzędzia pomiaru zależności społecznych

    IFIS Polska Akademia Nauk

  • Zaawansowana analiza danych w nauce i kształceniu akademickim: gdzie jesteśmy i co z tego wynika.

    Uniwersytet Jagielloński

  • Zastosowanie metod eksploracji danych do predykcji morfologii włosów i koloru oczu na podstawie materiału genetycznego

    Uniwersytet Mikołaja Kopernika w Toruniu

  • Co widać na pierwszy rzut oka, czyli pułapki wizualizacji danych

    SWPS Uniwersytet Humanistycznospołeczny

  • Analiza szeregów czasowych w ocenie stabilności składu chemicznego wód leczniczych

    AGH w Krakowie

Program

    • 09:00–10:00
      • rejestracja uczestników

    • 10.00 – 10.20
      • Uroczyste otwarcie konferencji

      •  

         

    Metodologia analiz ilościowych dostarcza narzędzi, które pozwalają coraz lepiej uchwycić złożoność procesów społecznych. Celem mojego wystąpienia będzie ilustracja tego postępu na przykładzie stosowania regresji kwintylowej i imputacji wielokrotnej do analizy zależności między zarobkami a wykształceniem i płcią. Opierając się na danych z badań prowadzonych w latach 1988-2013 pokażę, na ile posługiwanie się bardziej zaawansowanymi metodami zapewnia lepszy wgląd w strukturę tych te zależności w porównaniu z tradycyjnym podejściem. Dodatkowym uzasadnieniem konieczności wychodzenia poza standardowe pakiety statystyczne będzie będzie wskazanie przydatności modeli diagonalnych i logarytmiczno-liniowych w analizach nad ruchliwością społeczną.


    Prof. dr hab. Henryk Domański /// Profesor w Instytucie Filozofii i Socjologii PAN w Warszawie. W latach 2000-2012 dyrektor IFiS PAN. Zajmuje się badaniem obiektywnych i świadomościowych aspektów uwarstwienia społecznego, ruchliwości społecznej, metodologią badań społecznych i międzynarodowymi badaniami porównawczymi. Autor lub współautor 35 książek, w tym: „Społeczeństwa klasy średniej” (1994), „On the Verge of Convergence” (2000), „Hierarchie i bariery społeczne w latach 90-tych” (2000), „Women on the Polish Labour Market” (2001), „Ubóstwo w społeczeństwach postkomunistycznych” (2002), „O ruchliwości społecznej” (2004), „Struktura społeczna” (2007), „Sociological Tools. Measuring Occupations” (2009), „Podziały terytorialne, globalizacja a nierówności społeczne. Wprowadzenie do modeli wielopoziomowych” (2011), „Czy są w Polsce klasy społeczne?” (2015), „Prestige” (2015), „The Polish Middle Class” (2015). Redaktor naczelny czasopisma „Ask. Research&Methods”, poświęconego metodologii badań socjologicznych.

    W wystąpieniu zostanie poruszony problem znajomości i wykorzystania zaawansowanej analizy danych w badaniach i kształceniu akademickim w Polsce, zwłaszcza w obszarze nauk społecznych, choć nie tylko. Mowa będzie o tym, dlaczego wyrafinowane kompetencje w tym zakresie są konieczne i jak tracimy na ich zbyt słabym, upowszechnianiu. Rozwiniemy także tezę, że analiza danych to coś więcej niż znajomość technik statystycznych czy maszynowego uczenia się.


    Jarosław Górniak /// Profesor nauk społecznych, socjolog i ekonomista, dziekan Wydziału Filozoficznego Uniwersytetu Jagiellońskiego, twórca i kierownik Centrum Ewaluacji i Analiz Polityk Publicznych UJ oraz kierownik Zakładu Socjologii Gospodarki, Edukacji i Metod Badań Społecznych w Instytucie Socjologii UJ. Specjalizuje się w zakresie metod badań społecznych, metodologii ewaluacji i analizy polityk publicznych, socjologii gospodarki i organizacji oraz statystycznej analizie danych. Aktualnie jest kierownikiem naukowym kilku dużych programów badawczych, w tym systemowego projektu Bilans Kapitału Ludzkiego. Były ekspert Banku Światowego, jest autorem licznych opracowań i ekspertyz. Członek Komitetu Polityki Naukowej w kadencji 2014-2016. Przewodniczący Rady Narodowego Kongresu Nauki.

     

    Ustalenie cech fizycznych osoby na podstawie zebranego materiału genetycznego jest niezwykle istotne z punktu widzenia kryminalistyki. Dlatego prowadzi się badania, które mają na celu wykazać istnienie związku pomiędzy takimi cechami jak morfologia włosów czy kolor oczu a wytypowanymi polimorfizmami pojedynczego nukleotydu (SNP). Do tej pory najczęściej używano do tego metody regresji logistycznej. Okazuje się jednak, że zastosowanie innych metod eksploracji danych, zwłaszcza sieci neuronowych, może poprawiać dotychczasowe wyniki oraz pozwolić na budowę satysfakcjonującego modelu predykcyjnego. Dodatkowym aspektem prezentacji jest omówienie możliwości wykorzystania walidacji krzyżowej do oceny jakości otrzymanego modelu, co jest szczególnie cenne w przypadku dysponowania próbą o niewielkiej liczebności.


    Dr Joanna Karłowska-Pik /// Uniwersytet Mikołaja Kopernika w Toruniu.Doktor nauk matematycznych, obecnie adiunkt w Katedrze Teorii Prawdopodobieństwa i Analizy Stochastycznej Wydziału Matematyki i Informatyki Uniwersytetu Mikołaja Kopernika w Toruniu. Początkowo jej praca badawcza koncentrowała się na teorii procesów stochastycznych. Aktualnie zajmuje się zastosowaniem algorytmów eksploracji danych w badaniach medycznych i przyrodniczych Jej doświadczenia dydaktyczne są od lat związane ze statystyką i eksploracją danych. Ukończyła szereg kursów analizy danych, obecnie prowadzi m.in. akredytowane zajęcia laboratoryjne ze statystyki matematycznej w oparciu o program IBM SPSS Statistics dla studentów kierunków matematyka oraz matematyka i ekonomia. Swoimi doświadczeniami z pracy z pakietami statystycznymi dzieli się z innymi pracownikami nauki w ramach licznych kursów, szkoleń i warsztatów.

    Badacze wielokrotnie mierzą się z postrzeganiem badań jako teoretycznej, trudno wdrażanej wiedzy. Ponieważ zdarza się, że badania dodatkowo burzą też dotychczasowe stereotypy i aktualnie stosowane metody działań, to budzą tym większy opór. Wówczas organizacja niechętnie przyjmuje informację zwrotną od klientów oraz niechętnie odpowiada na oczekiwania formułowane przez klientów podczas badań. Celem prezentacji będzie podzielenie się kilkoma sposobami na przełamanie takiego oporu.


    Agnieszka Owsianko /// Kierownik Wydziału Satysfakcji i Utrzymania Klienta w AXA Polska. Od roku 1997 związana z branżą badań marketingowych, początkowo w agencjach badawczych Demoskop/Ipsos, 4P Research Mix, a później w instytucjach finansowych. W AXA od dziewięciu lat zajmuje się identyfikowaniem potrzeb klientów, diagnozą ich satysfakcji oraz wypracowywaniem działań spełniających oczekiwania klientów. Ukończyła psychologię na Uniwersytecie Warszawskim i marketing w Szkole Głównej Handlowej. Pasjonuje ją psychologia poznawcza, w tym szczególnie postrzeganie ryzyka związanego z różnymi obszarami aktywności człowieka.

    Komunikacja wyników analiz statystycznych w sposób strawny dla przeciętnego odbiorcy jest bardzo ważna. Jeśli wyniki nie zostaną przedstawione w przystępnej formie, ich przekaz może w ogóle nie dotrzeć do odbiorcy. W prezentacji przedstawione zostaną przykłady rozmaitych wizualizacji danych statystycznych i wyników analiz statystycznych, które pełnią nie tylko funkcję informacyjną, ale także perswazyjną. Omówione zostaną także podstawowe mechanizmy psychologiczne, mające znaczenie dla efektywności wizualizacji danych, bazujące na procesach percepcji wzrokowej i naiwnych metod przetwarzania informacji liczbowych. Na deser – przykłady błędów lub manipulacji ukrytych w przekazie obrazkowym.


    Dr Sylwia Bedyńska /// Adiunkt na Wydziale Psychologii Uniwersytetu SWPS w Warszawie. Od kilkunastu lat prowadzi zajęcia z podstawowych i zaawansowanych technik analitycznych. Stale współpracuje z Predictive Solutions w prowadzeniu szkoleń z zakresu technik wielowymiarowych: analizy wariancji i analizy regresji, dla pracowników naukowych podczas Warsztatów Analitycznych. Aktywnie bierze udział w tworzeniu programu partnerskiego ARIADNA, zrzeszającego polskie uczelnie wykorzystujące IBM SPSS Statistics. Jest autorką i redaktorką niezwykle popularnych podręczników ukazujących się pod nazwą „Statystyczny Drogowskaz”, przybliżających problematykę podstawowych statystyk opisowych, jak również złożone analizy obejmujące modele wariancji, regresji i równań strukturalnych. Publikuje teksty w e-biuletynie Predictive Solutions, jak również pełni funkcję redaktora statystycznego w czasopismach naukowych z obszaru psychologii pracy (np. „Bezpieczeństwo Pracy”). Pracuje naukowo nad zagadnieniami związanymi z wpływem stereotypów dotyczących niskich zdolności matematycznych kobiet na ich wybory edukacyjne i wyniki w testach egzaminacyjnych.


    Dane nie oznaczają informacji, informacja nie oznacza wiedzy. W organizacji takiej jak Grupa Onet.pl (Ringier Axel Springer Polska), ilość gromadzonych danych nie świadczy o ich wartości. Wartością są ludzie, potrafiący z danych korzystać oraz metodologie analityczne i narzędzia IT, które to ułatwiają. Po co wchodzimy na Onet, a po co na Fakt? Co portalowi daje Tomasz Lis, a co Robert Lewandowski? Pokażę kilka problemów wykorzystania danych, które już udało nam się rozwiązać oraz dalsze wyzwania, przed którymi wciąż stoimy.


    Mariusz Trejtowicz /// Head of User Intelligence w Grupie Onet.pl (Ringier Axel Springer Polska). Jest odpowiedzialny za wsparcie rozwoju produktów mediowych i reklamowych w oparciu o wiedzę o zachowaniach użytkowników. Od 13 lat zawodowo związany z analizą danych, jej zastosowaniami biznesowymi oraz implementacją rozwiązań analitycznych w systemach IT.

    Aby wody podziemne mogły zostać uznane za lecznicze, muszą spełnić szereg kryteriów określonych w aktualnie obowiązujących przepisach prawnych: ustawie Prawo Geologiczne i Górnicze (Dz.U. 2016, poz. 1131) oraz Rozporządzeniu Ministra Zdrowia z 13 kwietnia 2006 r. w sprawie zakresu badań niezbędnych do ustalenia właściwości leczniczych naturalnych surowców leczniczych i właściwości leczniczych klimatu, kryteriów ich oceny oraz wzoru świadectwa potwierdzającego te właściwości (Dz.U. 2006 nr 80 poz. 565). Jednym z warunków jest stabilność składu chemicznego wód w czasie. Analiza szeregów czasowych pozwala na identyfikację i ocenę ewentualnych trendów zmian jakości wód leczniczych. Kluczową kwestią jest dobór odpowiednich testów i właściwa interpretacja wyników. Głównym celem wystąpienia będzie zaprezentowanie możliwości programu PS IMAGO (IBM SPSS Statistics) w tym zakresie.


    dr Katarzyna Wątor /// Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Chemik analityk, doktor nauk o Ziemi, obecnie asystent w Katedrze Hydrogeologii i Geologii Inżynierskiej na Wydziale Geologii, Geofizyki i Ochrony Środowiska AGH oraz Kierownik ds. jakości w akredytowanym Laboratorium Hydrogeochemicznym KHGI AGH. Naukowo zajmuje się m.in. analizą zmienności składu chemicznego wód – w tym np. wód leczniczych – z zastosowaniem zaawansowanych narzędzi statystycznych oraz metod modelowania hydrogeochemicznego. Ukończyła szereg kursów analizy danych, z których wiedzę wykorzystuje również w obszarze zarządzania jakością i kontroli jakości w badaniach laboratoryjnych i terenowych oraz dydaktyce.

    • 12:10–12:20
      • Dyskusja

      •  

         

    • 12.20 – 13.00
      • SESJA POSTEROWA, przerwa na kawę

      •  

         

    Istotnym problemem decyzyjnym w strategiach finansowych przedsiębiorstw jest wybór sposobu podziału zysku netto. Podział ten stanowi korzyść finansową dla akcjonariuszy. Dokonując podziału zysku nie oznacza, iż cały zysk zostanie wypłacony w formie gotówki lub w postaci wyemitowania nowych akcji. Ma to znaczenie dla spółki, ale również dla wielu grup interesów czy wypłata dywidendy zostanie zrealizowana. Celem opracowania jest ocena w jakim stopniu zróżnicowanie własnościowe i sektorowe wpływa na realizację polityki dywidendy w spółkach. Czy występuje zależność pomiędzy wielkością wypłaty dywidendy a udziałem Skarbu Państwa. Porównanie cech charakterystycznych różnych form transferu środków pieniężnych. W opracowaniu wykorzystano spółki giełdowe które podjęły decyzję realizacji polityki dywidendy. Artykuł odpowie na pytanie czy udział Skarbu Pastwa w strukturze własnościowej wpływa na realizację polityki dywidendy. Czy Skarb Państwa jako właściciel decyduje się na nadmierne pobranie dywidendy z kontrolowanych przezeń spółek notowanych na Giełdzie Papierów Wartościowych w Warszawie, przy ograniczeniach uwzględniających interes zarówno samych spółek jak i ich mniejszościowych akcjonariuszy. Czy istnieje zależność pomiędzy wyszczególnionymi zmiennymi. Badaniem objęto spółki wypłacające dywidendę, gdzie akcjonariuszem jest również Skarb Państwa, których akcje są notowane na Giełdzie Papierów Wartościowych w Warszawie. Analiza będzie obejmować ostateczną wysokość wypłacanej dywidendy. W celu badania procesu zastosuje się metody badań literaturowych opartych na analizie krajowych i zagranicznych publikacji oraz dokonania empirycznej analizy zjawiska.


    Jowita Piątkowska /// Uniwersytet Ekonomiczny w Katowicach

    Tematyka wystąpienia obejmie zastosowanie technologii informacyjno-komunikacyjnych w Polsce i ocenę informatyzacji społeczeństwa za pomocą wskaźnika NRI (ang. Networked Readiness Index). Innowacje i technologie ICT (ang. Information and Communication Technologies) stanowią główne czynniki pobudzające konkurencyjność i efektywność gospodarki oraz umożliwiające redukcję ekonomicznych, cyfrowych i społecznych podziałów w obrębie państwa. Dlatego też pomiar poziomu rozwoju technologii ICT, ich wpływu na ekonomię i życie społeczne oraz gotowości krajów do ich wykorzystania są niezwykle ważne. W tym celu wykorzystywane są odpowiednie wskaźniki, m.in. indeks gotowości sieciowej – NRI, na którym skupi się autorka. Opisane zostaną składające się na w/w indeks zmienne oraz zinterpretowana zostanie jego wartość w Polsce na tle innych krajów UE. Ukazana zostanie również tendencja zmian w kształtowaniu się wskaźnika zachodzących w badanym państwie. NRI jest miernikiem gotowości państwa do wykorzystania możliwości oferowanych przez technologie ICT, na który składa się 68 zmiennych. Wskaźnik ten jest publikowany corocznie przez Światowe Forum Ekonomiczne (World Economic Forum) we współpracy Szkołą Biznesu INSEAD w raporcie The Global Information Technology Report. W trakcie wystąpienia przedstawione zostaną również alternatywne wskaźniki służące pomiarowi stopnia rozwoju społeczeństwa informacyjnego i ekonomii opartej na wiedzy, takie jak ISI, DOI, DAI czy IDI. Celem wystąpienia jest zbadanie zróżnicowania rozwoju informatycznego Polski na tle innych krajów Unii Europejskiej i stopnia informatyzacji społeczeństwa oraz zaprezentowanie możliwości, jakie niesie za sobą wykorzystanie narzędzi informacyjno-komunikacyjnych.


    Klaudia Walencik /// Uniwersytet Ekonomiczny w Katowicach

    Zastosowanie rozszerzonego algorytmu AMUSE do oceny podobieństwa finansowych szeregów czasowych


    W przypadku danych finansowych można wskazać wiele sytuacji, w których podobne formacje analizy technicznej nie są efektywnie identyfikowane na bazie standardowych metod korelacyjnych lub typowych miar odległości. Także w problematyce doboru miar zależności oraz podobieństwa w zagadnieniu budowy optymalnego portfela inwestycyjnego w modelu APT lub teorii Markowitza istnej kwestia efektywności stosowanych metod. W niniejszym artykule zaprezentujemy nowe podejście do oceny podobieństwa finansowych szeregów czasowych w kontekście modelu ATP oraz automatycznych systemów transakcyjnych. W tym celu zastosujemy metody ślepej separacji sygnałów (ang. BSS - Blind Signal Separation) - w szczególności rozszerzoną wersję algorytmu AMUSE umożliwiającą eksplorację statystyk drugiego oraz wyższych rzędów. Zastosowanie metod BSS pozwala na wyodrębnienia ukrytych komponentów zawartych w finansowych szeregach czasowych, których wzajemna analiza pozwala na ujawnienie głębszych zależności w analizowanych danych. W tym celu na bazie zidentyfikowanych komponentów zdefiniujemy szereg tzw. „charakterystyk morfologicznych”. Punktem wyjścia dla rozszerzonej wersji algorytmu AMUSE jest zdefiniowanie uogólnionej nieliniowej macierzy korelacji postaci

    gdzie jest wektorem stóp zwrotu, jest odpowiednio dobraną funkcja nieliniową, są parametrami określającymi proporcje między standardową macierzą korelacji oraz nieliniową macierzą korelacji, zaś K oraz J są zbiorami wartości opóźnień odpowiednio dla standardowej oraz nieliniowej macierzy korelacji. Eksploracja macierzy pozwala na estymację ukrytych komponentów zawartych w finansowych szeregach czasowych . W praktycznym eksperymencie bazując na danych z warszawskiej GPW porównamy charakterystyki finansowych szeregów czasowych analizując nowe oraz klasyczne miary zależności i podobieństwa zastosowane do ukrytych komponentów. Szczególną uwagę poświęcimy zgodności otrzymywanych wyników z oceną ekspercką co może być istotne w projektowaniu automatycznych systemów inwestycyjnych, w których wskazane jest łączyć podejście mechaniczne z wiedzą teoretyczną.


    Tomasz Soboń, dr hab. Ryszard Szupiluk /// Szkoła Główna Handlowa w Warszawie

    Objectives: The main objective of this study was to explore and compare the prevalence of Problematic Internet Use (PIU) among European Internet users by taking gender into account, and to assess their relationships with psychopathological symptoms. Methods: Our total sample consisted of 5593 Internet users (2129 men), aged between 18 and 87 years old (M = 25.81; SD = 8.61). Recruited online, they completed several scales about their Internet use and psychopathology.

    Stéphanie Laconi, dr Katarzyna Kaliszewska-Czeremska, Daria J.Kuss, Antonio Gnisci, Ida Sergi, Antonia Barke, Franziska Jeromin, Jarosław Groth, Manuel Gamez-Guadix, Neslihan Keser Ozcan, Zolt Demetrovics, Orsolya KirályKonstantinos Siomos, George Floros /// Akademia Ignatianum, Kraków

    Prowadzenie wszelkiego rodzaju projektów badawczych bez przeprowadzenia przeglądu badań jest jak podróżowanie po egzotycznych krajach, ale bez opuszczania hotelu (Booth, Sutton i Papaioannou, 2012). Tworzenie nowej wiedzy wymaga rozpoznania istniejącego stanu rzeczy. Jednak interdyscyplinarność wielu dziedzin nauki, niesie za sobą wiele trudności w poznaniu dorobku nauki. Naprzeciw temu wyzwaniu wychodzi właśnie metoda systematycznego przeglądu badań. Celem niniejszej prezentacji jest opis metody przeglądu systematycznego – obiektywnej i powtarzalnej oceny badań/programów społecznych – dostarczającej wiarygodnych danych na rzecz świadomego kształtowania polityk społecznych, w tym edukacyjnych. Jest to rodzaj przeglądu literatury skupiający się na jednym zagadnieniu wykonanym w oparciu o dowody naukowe, czyli wiarygodne publikacje wyników pierwotnych badań naukowych (pierwotne źródło wiedzy), zawierającym opis identyfikacji, oceny, wyboru i podsumowania tych wyników.


    Agnieszka Orłowska /// Katolicki Uniwersytet Lubelski Jana Pawła II

    W pracy zostanie zaprezentowany sposób analizy bardzo dużej ilości danych śladów GPS należących do otwartego zbioru danych OpenStreetMap. Podczas przetwarzania informacji zostaną wykorzystane systemy baz danych z rozszerzeniami przystosowanymi do obsługi obiektów przestrzennych, między innymi SQLite SpatiaLite, PostgreSQL PostGIS oraz Oracle Spatial. Autor przedstawi sposób wyznaczenia tras najczęściej uczęszczanych, najpopularniejsze cele wybierane przez użytkowników, relacje odnoszące się do punktu początkowego i końcowego trasy. Przy okazji zostaną wyznaczone obszary, w których zasięg sygnałów satelitarnych może zostać utracony (co w gęstej zabudowie miejskiej jest częstym zjawiskiem). Obszarem opracowania będzie miasto Kraków oraz Centrum Berlina.


    Mateusz Ilba /// Uniwersytet Ekonomiczny w Krakowie

    Proces transferu temperatury w podłożu gruntowym zależny jest od parametrów geotechnicznych gruntu oraz geometrii terenu. W dalszej perspektywie należy uwzględniać zmiany klimatyczne, jak również zmiany wywołane postępem ekonomicznym. Temperatura podłoża gruntowego ma większą bezwładność niż temperatura filtrującej w podłożu wody. Badania procesów termicznych w budowlach ziemnych mogą być prowadzone z wykorzystaniem sensorów zlokalizowanych wewnątrz konstrukcji. Dużą liczba rejestrowanych danych wymaga odpowiedniej aparatury a później analizy, najczęściej z wykorzystaniem narzędzi informatycznych. Referat przedstawia badania modelowe przeprowadzone na nasypie hydrotechnicznym. Uformowany z gruntu mineralnego model został opomiarowany zestawem czujników umieszczonych we wnętrzu budowli oraz w zbiorniku wody zasilającej i odpływowej. Kolejne sensory umożliwiały określenie położenia zwierciadła wody infiltrującej przez korpus. Trzeci system pomiarowy umożliwiał rejestrację zmian temperatury wokół i na powierzchni modelowego nasypu. Ilość i wielowątkowość zgromadzonych cyfrowo danych pozwoliła na przeprowadzenie testów analitycznych z wykorzystaniem narzędzi informatycznych. Powiązanie poszczególnych parametrów ze sobą przedstawia problem jeśli stosujemy szablonowe oprogramowanie inżynierskie. Wymagane jest wprowadzenia analizy uwarunkowań poszczególnych czynników, oraz statystycznej oceny istotności czynnika.


    dr inż. Mariusz Cholewa, Tetiana Kutia, dr hab. inż. Andrzej Gruchot, dr inż. Tymoteusz Zydroń /// Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie

    Statystyka to nauka powszechnie stosowana nie tylko do interpretacji i prezentacji wyników, ale także do opisu wybranej cechy na podstawie próby losowej pobranej z danej populacji. W badaniach hydrogeochemicznych statystyka wykorzystywana jest przede wszystkim do wykonania charakterystyki chemicznej wód (podziemnych, powierzchniowych, termalnych) na podstawie pobranych próbek. Ponadto służy również do oceny jakości uzyskanych wyników. Niniejsza praca prezentuje wykorzystanie podstawowych statystyk opisowych do oceny stabilności stężeń krzemionki w wysokozmineralizowanych wodach, których pobór i analiza wykonywane były przez półtorej roku w odstępach jednego miesiąca. Podstawowym założeniem przy analizie stabilności jest normalny rozkład danych pomiarowych. Rozkład danych testowany jest za pomocą testów istotności Kołmogorowa-Smirnowa bądź Shapiro-Wilka wybieranych w zależności od wielkości próby. Analizowane dane dotyczące stężeń krzemionki charakteryzują się rozkładem normalnym. Stabilność stężeń krzemionki oceniono na podstawie analizy kart kontrolnych. Oceniana jest ona na podstawie położenia wyników kolejnych pomiarów względem górnej i dolnej zasadniczej granicy kontrolnej (x+3s; x-3s) oraz granic ostrzegawczych - górnej (x+2s) oraz dolnej (x-2s). Na podstawie przeprowadzonej analizy stwierdzono, że stężenie SiO2 w badanych wodach jest stabilne. Dodatkowo przeprowadzono analizę korelacji stężenia krzemionki względem wielkości wydatku eksploatacyjnego. Wykorzystując współczynnik korelacji liniowej r będący stosunkiem kowariancji zmiennych (x, y) i iloczynu odchyleń tych zmiennych można określić siłę zależności pomiędzy stężeniem krzemionki, a wielkością wydajności z jaką wypompowywana jest woda z otworu badawczego. W przypadku gdy zmienne są od siebie niezależne, zarówno wartość kowariancji jak i współczynnik korelacji są bliska zera. W przypadku analizowanego wskaźnika wykazano brak zależności między wielkością stężenia krzemionki a wydajnością ujęcia. Po określeniu charakteru rozkładu danych oraz ocenie ich stabilności w czasie wykonano obliczenia niepewności dla badanego parametru, a następnie porównano otrzymane wyniki z niepewnością podawaną przed laboratorium, w którym wykonywana była analiza.


    Anna Mika, Piotr Rusiniak /// Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie

    Przedmiotem opracowania jest wycena opcji ilorazowych przy wykorzystaniu transformaty Fouriera. Punktem wyjścia do analizy rozpatrywanego zagadnienia jest wyznaczenie wartości teoretycznych instrumentów finansowych bazujących na prawach pochodnych przy założeniu słuszności modelu F. Blacka i M. Scholesa. W ramach podejmowanych działań przedmiotem zainteresowania czyni się najpierw koncepcję martyngałową, zakładającą znajomość analitycznej postaci funkcji gęstości prawdopodobieństwa notowań giełdowych. Następnie, sprawdzana jest możliwość zastosowania podejścia P. Carra i D. Madana do określania cen sprawiedliwych przedmiotowych derywatów. Ostatecznie, analizie poddawane jest autorskie podejście bazujące na transformacie Fouriera zmierzające do usprawnienia procesu wyceny pod względem zarówno szybkości, jak i dokładności obliczeniowej. Warto zauważyć, iż proponowana koncepcja ma charakter uniwersalny, tzn. może być z powodzeniem zastosowana do określania wartości opcji w modelach uwzględniających zarówno skoki kursowe, tj. modelach R. Mertona i S. Kou’a, jak i stochastyczną zmienność wariancji stóp zwrotu z aktywów bazowych, np. modelu S. Hestona.


    dr Arkadiusz Orzechowski /// Szkoła Główna Handlowa w Warszawie

    • 13:00–14:40
      • SESJE NAUKOWE

      •  

    Dostarczanie rzetelnej, aktualnej i precyzyjnej informacji dla gospodarki i społeczeństwa jest jednym z najważniejszych zadań organów statystyki publicznej. Wraz z postępującym rozwojem, popyt na informację jest coraz większy, w coraz większej liczbie przekrojów o coraz lepszej jakości. Przeprowadzane cyklicznie i ad-hoc badania reprezentacyjne dostarczają informacji bogatej merytorycznie i wielowymiarowej, jednak ograniczenia wynikające ze stosunkowo niewielkiej liczebności próby powodują, że precyzja estymatorów zmniejsza się wraz ze zwiększaniem liczby publikowanych przekrojów. Powoduje to, że informacje dotyczące tzw. małych domen (szczegółowych przekrojów) nie są publikowane ze względu na nieakceptowalnie duży błąd losowy. Źródła pełne, jak rejestry administracyjne, czy dane spisowe charakteryzują się pełnym lub prawie pełnym pokryciem, jednak ich zawartość merytoryczna zwykle jest mniejsza niż w przypadku badań częściowych. Na ich podstawie publikowane są szczegółowe tabele, jednak o stosunkowo niewielkiej liczbie wymiarów. Połączenie informacji z wielu źródeł może prowadzić do poprawy jakości i precyzji szacunków dokonywanych na podstawie badań częściowych. Nowoczesne metody statystycznej integracji danych, statystyki małych obszarów oraz przestrzennej mikrosymulacji w istotny sposób przyczyniają się do zmniejszania błędów losowych i nielosowych bez konieczności zwiększania liczebności próby, czy przeprowadzania nowych badań. W wystąpieniu przedstawione zostaną metody generowania pełnych zbiorowości statystycznych z wykorzystaniem danych jednostkowych z badań częściowych z jednoczesnym zachowaniem łącznych rozkładów oszacowanych na podstawie źródeł pełnych. Przedstawiony zostanie algorytm symulacji, wyniki oraz ocena jakości i precyzji oszacowań ze szczególnym uwzględnieniem małych domen.


    dr Wojciech Roszka /// Dr Wojciech Roszka

    Agregacja modeli jest intensywnie rozwijanym obszarem współczesnej analizy danych - w szczególności w zakresie metod uczenia maszynowego. Jednym z powodów tego stanu rzeczy jest stosunkowo duża liczba efektywnych metod predykcyjnych. W efekcie, istotnego postępu można upatrywać na etapie łączenia różnych rozwiązań. Jednak podejście wielomodelowe z reguły stawia duże wymagania środowiskom analitycznym, w których tworzone a następnie agregowane są modele. W konsekwencji zasadniczy wysiłek badawczy przenosi się na płaszczyznę analityki systemowej, gdzie kluczową role odgrywają algorytmy koordynujące współpracę różnych systemów. W naszym przypadku jako warstwę łączącą różne modele rozwiniemy platformę SORCER. Platforma ta implementuje federację usług S2S (ang. Service to Service) tworząc metaobliczeniowe środowisko oparte na semantyce Jinii. W środowisku tym poszczególne modele predykcyjne (dostawcy usług) traktowane są jako obiekty sieciowe zorganizowane w obiektowo zorientowaną architekturę federacji usług (ang. FSOO – Federated Service Object-Oriented Architecture). Pozwala ona na zintegrowanie różnych środowisk analitycznych (np. Matlab, Octave, SPSS, SAS) tworząc ponad nimi warstwę dysponującą własnym językiem modelowania. Modele prognostyczne mogą być w tej warstwie reprezentowane w uniwersalny sposób niezależnie od stosowanego algorytmu oraz implementującego go środowiska. Infrastruktura platformy SORCER pozwala ponadto na wykonywanie obliczeń w środowisku rozproszonym koordynując zadania w sposób synchroniczny lub asynchroniczny z wykorzystaniem algorytmu opartego na idei Tuple Spaces, co zapewnia także dobór modeli według wskazanych parametrów. Dodatkowo, stosowane algorytmy umożliwiają dynamiczne przydzielanie zasobów obliczeniowych oraz rozliczanie ich użycia zapewniając niezawodność i wydajność prowadzonych analiz. Na bazie tej platformy przedstawimy koncepcję budowy oraz agregacji różnych modeli - także już istniejących jednak osadzonych w odmiennych środowiskach analitycznych.


    Dr hab. Ryszard Szupiluk, dr Paweł Rubach /// Szkoła Główna Handlowa w Warszawie

    Przebaczenie jest złożonym zjawiskiem, uzależnionym od wielu czynników. Celem prezentowanych badań była odpowiedź na pytanie jaka jest zależność między postrzeganiem wartości relacji ze sprawcą krzywdy, intencją działania sprawcy i skruchą wyrażaną przez sprawcę a motywacją do przebaczenia. W badaniu, o charakterze eksperymentalnym, wzięło udział 218 studentów, w wieku 19-21 lat. Osoby badane zostały podzielone na osiem grup. Każda z grup miała za zadanie wyobrażenie sobie sytuacji krzywdy, charakteryzującej się jedną z ośmiu możliwych konfiguracji trzech analizowanych wymiarów: wartościowości, intencji i skruchy. Następnie badani wypełniali Inwentarz Motywacji Interpersonalnej w Sytuacji Krzywdy TRIM-18. Wyniki wskazują, że wartościowość relacji wiąże się istotnie dodatnio z motywacją do przebaczenia, niezależnie od intencji działania sprawcy i skruchy wyrażanej przez sprawcę. Uzyskane rezultaty zinterpretowano w terminach adaptacyjności i dezadaptacyjności przebaczenia, rozumianego jako chęć utrzymania pozytywnej relacji ze sprawcą krzywdy.


    Michał Meisner /// Katolicki Uniwersytet Lubelski Jana Pawła II

    Współczesne wielkie eksperymenty fizyki wysokich energii rejestrują olbrzymie ilości danych, jednakże tylko bardzo niewielką ich część stanowią zderzenia cząstek, które niosą informację o nowych, nieznanych zjawiskach (typowo jeden na około 100 mln). Wyselekcjonowanie i analiza zebranych przypadków wymaga zarówno wielkich farm komputerowych, jak i coraz bardziej efektywnych algorytmów selekcji. Selekcja danych rozpoczyna się już w momencie zarejestrowania przypadku w detektorze, gdy dedykowane systemy wyzwalania wybierają potencjalnie interesujące przypadki zderzeń cząstek i tylko one są zapisywane do dalszej analizy. W następnym etapie następuje rekonstrukcja wielkości fizycznych oraz wstępna selekcja zarejestrowanych przypadków, które zostaną użyte do dalszej analizy. Podczas analizy i selekcji interesujących przypadków fizycy cząstek elementarnych coraz częściej sięgają po metody oparte na uczeniu maszynowym. Takie algorytmy, jak sieci neuronowe czy wzmocnione drzewa decyzyjne (Boosted Decision Trees) okazały się bardzo skuteczne, w związku z tym stały się już rutynowymi metodami analizy danych. Ich skuteczność opiera się głównie na tym, że zdecydowana większość danych spotykanych w fizyce jest wielowymiarowa, a wtedy należy uwzględnić korelacje pomiędzy nimi, nieraz bardzo skomplikowane. Najbardziej efektywnie można to zrobić, używając metod uczących się na przykładach, czyli uczenia maszynowego. W ostatnich latach coraz częściej używane są algorytmy głębokiego sieci uczenia (Deep Learning), łączące uczenie bez nauczyciela z uczeniem nadzorowanym i pozwalające bardziej wydajnie wykorzystać informacje zawarte w danych. Istotne jest także to, że stosowane głębokie sieci neuronowe mogą używać większej liczby podstawowych zmiennych zamiast kilku zmiennych wyższego rzędu zaproponowanych przez fizyków. Ich zastosowanie jest następnym krokiem w kierunku automatyzacji procesu analizy danych i zwiększenia jego wydajności.


    Dr hab. Marcin Wolter /// Instytut Fizyki Jądrowej Polskiej Akademii Nauk

    Biura Karier to specyficzne jednostki działające z jednej strony w strukturach uczelni, a z drugiej - ściśle współpracujące z rynkiem pracy. Zatem, klientami biur są nie tylko studenci oraz absolwenci, ale również pracodawcy. W wystąpieniu pokażę, w jaki sposób zastosowanie ilościowych metod badawczych służy optymalizacji działalności biura w zakresie satysfakcji odbiorców naszych usług, począwszy od takich elementów ewaluacji jak zwykły pomiar zadowolenia klienta, a kończąc na bardziej zaawansowanych projektach, jak badania pracodawców. Wypracowany system oceny takich działań biura jak doradztwo, mentoring, organizacja szkoleń, targów pracy czy praktyk studenckich dostarcza cennych danych determinujących rozwój i strategię jednostki, gdyż niezależnie od skali realizowanych projektów, zawsze stawiamy na praktyczne zastosowanie wyników. Odbiorcami wniosków i rekomendacji zawartych w raportach są nie tylko pracownicy biura, ale również inne jednostki uczelni, studenci, absolwenci oraz współpracujący z nami pracodawcy.


    Paulina Hojda /// Biuro Karier UJ

    Na podstawie bazy danych, zawierającej obserwacje z 33 680 zakwalifikowanych dotychczasowych startów w wyborach bezpośrednich do stanowisk kierownika gminnej egzekutywy, zaprezentowana zostanie analiza RDD. Pozwoli to na ujawnienie przewagi wyborczej inkumbentów w zakresach: prawdopodobieństwa kandydowania i zwycięstwa w wyborach kolejnych; przewagi (vote margin), uzyskiwanej nad pretendentami; czy dysproporcji siły inkumbentów (vote share). Metoda RDD po raz pierwszy zastosowana w latach 60-tych nie jest szerzej znana w Polsce, a relatywnie dosyć często wykorzystywana w analizach wyborczych na świecie.


    dr Sławomir Bartnicki /// Uniwersytet w Białymstoku/Instytut Socjologii i Kognitywistyki


    Wypalenie zawodowe to syndrom psychologiczny wynikający z doświadczania przez pracowników chronicznego stresu, będącego efektem zaburzonej równowagi pomiędzy środowiskiem pracy a możliwościami jednostki. Zainteresowanie tematem wypalenia związane jest ze wzrastającym zapotrzebowaniem na wspieranie grup zawodowych, które wg literatury przedmiotu są szczególnie narażone na doświadczanie negatywnych skutków wyczerpującej pracy zawodowej, czyli pracowników opieki medycznej oraz edukacji (Maslach, Leiter, 2008, 2010, 2011). Celem badań pierwotnych była ocena postrzegania zjawiska wypalenia przez polskich pracowników sektora: edukacji, szkolnictwa wyższego oraz opieki medycznej. Badanie przeprowadzono w czerwcu i w lipcu 2017 r. na próbie 153 respondentów w ramach projektu współpracy ponadnarodowej dedykowanego wypracowaniu skutecznego narzędzia prewencji wypalenia zawodowego. Do pomiaru wykorzystano dwa typy kwestionariuszy. Pierwszym był Kwestionariusz Wypalenia Zawodowego LBQ, który jest adaptacją włoskiego kwestionariusza Link Burnout Questionnaire (Santinello, 2008). Narzędzie to umożliwia diagnozę czterech aspektów wypalenia, tj. wyczerpania psychofizycznego, braku zaangażowania w relacje z klientami (podopiecznymi), poczucia braku skuteczności zawodowej oraz rozczarowania pracą zawodową. Drugi to autorski kwestionariusz mający na celu ocenę rozpoznawalności zjawiska wśród polskich pracowników. Do analizy wyników badań wykorzystano m.in. tablice kontyngencji, metody klasyfikacji (TwoSteps Cluster Analysis), analizę czynnikową, testy na istotność różnic, modele regresji logistycznej. Zastosowane narzędzia i metody badawcze pozwoliły na znalezienie odpowiedzi na następujące pytania badawcze: 1) Czy wypalenie zawodowe jest (i w jakim stopniu) zjawiskiem dostrzeganym (uświadamianym) przez polskich pracowników? 2) Czy występują różnice w postrzeganiu i objawach wypalenia zawodowego pomiędzy reprezentantami trzech analizowanych grup zawodowych? 3) Czy jest związek (jeśli tak to jaki) pomiędzy poziomem wypalenia zawodowego i jego komponentów a czynnikami demograficznymi, awersją do pracy, oraz rozwijaniem własnych zainteresowań?


    dr inż. Urszula Załuska, dr inż. Dorota Kwiatkowska-Ciotucha /// Uniwersytet Ekonomiczny we Wrocławiu

    Generowane przepływy pieniężne stanowią jeden z czynników determinujących zdolność podmiotu do kontynuowania działalności gospodarczej. Szczególnie ważne są przepływy w obszarze operacyjnym, związane z podstawową działalnością przedsiębiorstwa. Wynikają one ze sprzedaży towarów, produktów lub usług wykazywanych jako wpływy oraz wydatków ponoszonych na zakup materiałów, energii, wynagrodzeń, jak i wszelkich wypłat o charakterze publicznoprawnym . Saldo netto operacyjnych przepływów pieniężnych stanowi cenną informację w ocenie projektów inwestycyjnych, prognozie upadłości spółek czy wycenie instrumentów finansowych . Ostatnie zastosowanie stanowi przedmiot wystąpienia. Autor podejmuje w nim zagadnienie dotyczące możliwości prognozy kierunku zmiany cen akcji spółek z indeksów WIG20 i mWIG40 Giełdy Papierów Wartościowych w Warszawie na podstawie zmian salda netto przepływów z działalności operacyjnej. Analiza współzależności zostanie przeprowadzona przy wykorzystaniu współczynnika korelacji liniowej Pearsona. Na podstawie dokonanych obliczeń, obejmujących zarówno bezwzględne jak i względne zmiany przepływów operacyjnych i kursów akcji, nie stwierdzono silnej dodatniej zależności liniowej między zmiennymi. Ponadto w niektórych przekrojach analizy korelacja ta ma charakter ujemny, świadczący o różnokierunkowych zmianach wykorzystanych zmiennych. Trudno zatem mówić o możliwości prognozy kierunku zmiany kursów akcji wymienionych spółek na podstawie zmiany salda netto ich przepływów operacyjnych.


    Bartłomiej Lisicki /// Uniwersytet Ekonomiczny w Katowicach

    Jednym z podstawowych celów sondaży o charakterze porównawczym jest dostarczenie badaczowi danych pozwalających na poprawne metodologicznie wnioskowanie o międzykrajowych różnicach w wartościach pewnych konstruktów (skal pomiarowych) uwzględnionych w badaniu. Tym samym problematyka szeroko pojętej ekwiwalentności uzyskiwanych danych / wyników w badaniach realizowanych w różnych krajach, stanowi jeden z najważniejszych obszarów refleksji metodologicznej nad jakością sondaży porównawczych w ogóle. Studia metodologiczno-empiryczne skupiają się przy tym wokół dwóch podstawowych zagadnień, tj.: (1) porównywalności schematów doboru oraz terenowej realizacji sondażowych prób badawczych, (2) porównywalności procesu uzyskiwania odpowiedzi z uwzględnieniem ekwiwalentności pomiarowej konstruktów latentnych. W referacie przedstawione zostaną przykłady ilustrujące drugi ze wskazanych obszarów problemowych. Na podstawie danych pochodzących z 21 krajów uczestniczących w siódmej rundzie Europejskiego Sondażu Społecznego (N=39.898) omówione zostaną procedury służące ocenie ekwiwalencji pomiarowej skali zaufania do krajowych instytucji politycznych. Skala ta oparta jest na pięciu wskaźnikach bazowych, w tym na: zaufaniu do parlamentu, systemu prawnego, policji, polityków oraz partii politycznych. Podane zostaną podstawowe pojęcia związane z analizą ekwiwalentności pomiarowej konstruktów latentnych, tj.: inwariancji konfiguralnej, metrycznej oraz skalarnej. Inwariancja konfiguralna testowana będzie poprzez implementację procedury konfirmacyjnej analizy czynnikowej CFA. Z kolei, inwariancja metryczna oraz inwariancja skalarna oceniana będzie poprzez analizę miar dobroci dopasowania zagnieżdżonych modeli pomiarowych w wielogrupowej analizie ścieżkowej SEM. Rezultaty prowadzonych badań ukażą problemy z pomiarem pewnych bazowych pytań w niektórych krajach, co z kolei utrudnia międzykrajowe porównania wartości skali poziomu zaufania do krajowych instytucji politycznych. Przedstawione zostaną również procedury pozwalające na poprawę jakości modeli pomiarowych, m.in. poprzez analizę tzw. wskaźników modyfikacji. Analizy danych wsparte zostaną oprogramowaniem IBM SPSS AMOS.


    Dr hab. Piotr Jabkowski /// Uniwersytet im. Adama Mickiewicza w Poznaniu

    Coraz więcej państw w Europie boryka się z problemem starzejącego się społeczeństwa. Wzrost przewidywalnej długości życia skutkuje wzrostem wydatków państwowych na emerytury oraz inne świadczenia socjalne. W dalszej perspektywie wymusza to reformy obowiązujących systemów, m. in. zwiększenie wieku emerytalnego, tak aby były one bardziej efektywne. Kraje bałtyckie, tzn. Estonia, Litwa i Łotwa są państwami, które do lat 90. XX wieku tworzyły wraz z innymi krajami Związek Socjalistycznych Republik Radzieckich (ZSRR). Dotychczas każde z nich miało takie same regulacje prawne w zakresie systemu emerytalnego, ale po ogłoszeniu suwerenności dokonały one szeregu zmian. Sprawiły one, że w każdym z tych państw sytuacja osób starszych, tzn. w wieku przedemerytalnym i emerytalnym kształtuje się inaczej. Poszukiwanie najlepszych rozwiązań, które można wdrożyć w danym kraju jest bardzo skomplikowane. Wprowadzone zmiany dają bowiem efekty po latach. Dodatkowo należy uwzględnić okresy przejściowe, które pozwolą obywatelom dostosować się do nowych warunków. Istotnym problemem jest opór społeczny wobec dłuższego czasu pracy, co przekłada się na dłuższy czasu oskładkowania wynagrodzeń. Celem pracy jest identyfikacja związków pomiędzy podstawowymi zmiennymi systemu emerytalnego - wiekiem emerytalnym (zarówno ustawowym jak i rzeczywistym) stopą zastąpienia, minimalną emeryturą oraz stopą bezrobocia osób starszych. Przeprowadzone analizy mogą okazać się pomocną wskazówką dla rządzących szczególnie w kontekście dalszych reform systemów emerytalnych. Są one również istotne dla obywateli - mogą ułatwić podjęcie decyzji dotyczących skorzystania z możliwości przejścia na emeryturę lub kontynuowania swojej kariery zawodowej. W pracy zastosowano krytyczną analizę literatury przedmiotu, miary statystyki opisowej oraz analizę korelacji. Źródłem danych empirycznych są urzędy statystyczne poszczególnych państw - Statistikaamet (Estonia), Lietuvos statistikos departamente (Litwa), Centrālā statistikas pārvalde (Łotwa), a także Eurostat.


    Dawid Banaś /// Uniwersytet Ekonomiczny w Poznaniu

    Dziś większość badaczy zgadza się co do tego, iż wysoki poziom funkcjonowania poznawczego pracowników jest jednym z kluczowych czynników prowadzących do wysokiego poziomu wykonania pracy. Wciąż jednak niewiele wiadomo o tym, w jaki sposób funkcjonowanie poznawcze wiąże się z pozytywnym emocjonalno-poznawczym stanem umysłu, jakim jest zaangażowanie w pracę. Dlatego postawiłem sobie pytanie: w jaki sposób sprawność poznawcza człowieka wiąże się z zaangażowaniem w pracę? W ramach prowadzonych przeze mnie badań, finansowanych przy wsparciu NCN, grupa 383 dorosłych pracujących osób wykonała zestaw testów zdolności poznawczych oraz wypełniła kwestionariusze oceny różnych aspektów ich pracy zawodowej. W ramach wystąpienia chciałbym podzielić się doświadczeniami oraz wątpliwościami nabytymi podczas analizowania związków pomiędzy sprawnością pamięci roboczej a zaangażowaniem w pracę. Podczas planowanego wystąpienia poruszę kilka zagadnień związanych z testowaniem związków pośrednich w modelach równań strukturalnych. 1) Postaram się poszukać odpowiedzi na pytanie, czy istnienie bezpośredniego związku między dwiema zmiennymi A → B jest warunkiem istnienia między tymi zmiennymi relacji pośredniej A → X →B (ang. indirect effect) ? 2) Omówię napotkaną przeze mnie sytuację supresji, w której wprowadzenie dodatkowej zmiennej do modelu równań strukturalnych ujawnia niewidoczną wcześniej relację między zmiennymi. 3) Opowiem o „odkrytej” przeze mnie metodzie testowania specyficznych efektów pośrednich (ang. specific indirect effect) w wielozmianowych modelach mediacyjnych (ang. multiple mediator models) z wykorzystaniem user-defined estimands oprogramowania IBM AMOS. Co ciekawe, według niektórych autorów testowanie specyficznych efektów pośrednich jest niemożliwe z wykorzystaniem AMOS (por. Perera, 2013; Macho i Ledermann, 2011). Oszacowanie specyficznych efektów mediacyjnych istotne jest w modelach, w których interesująca nas zmienna wyjaśniająca wiąże się ze zmienną wyjaśnianą poprzez więcej niż jedną relację pośrednią. 4) Na zakończenie przedstawię refleksję na temat roli podłoża teoretycznego w tworzeniu i testowaniu modeli równań strukturalnych.


    Konrad Kulikowski /// Uniwersytet Jagielloński

    Coraz powszechniejsze staje się realizowanie badań społecznych i marketingowych wykorzystując Internet jako kanał kontaktu z respondentem. Większość paneli badawczych uniemożliwia realizowanie prób reprezentatywnych dla populacji generalnej. Prezentacja ma na celu przybliżenie problemu uogólniania wyników badań realizowanych za pośrednictwem paneli badawczych i/lub portali społecznościowych. W ramach wystąpienia zaprezentowane zostaną wyniki badań porównawczych realizowanych różnymi technikami na analogicznych grupach respondentów oraz propozycje rozwiązań stosowanych przeze mnie obecnie.


    Konrad Kuźma /// Akademia Pedagogiki Specjalnej

    • 14:30–14:40
      • Dyskusja

      • Dyskusja

    • 14:40–15:00
      • Zakończenie konferencji, rozstrzygnięcie konkursu posterowego

    • 15:00-15:45
      • Lunch


        Uwaga! Zarówno zawartość programu, jak i kolejność wystąpień mogą jeszcze ulec zmianie.

Publikacje

Zgłoszone i zaakceptowane przez Komitet Naukowy abstrakty (max 300 słów) zostaną opublikowane na stronie internetowej konferencji.

Wybrane przez Komitet Naukowy referaty zostaną wygłoszone w dwóch równoległych sesjach tematycznych. Pozostali uczestnicy Konferencji będą mogli zaprezentować wyniki swoich badań w sesji posterowej. Postery prezentowane w sesji posterowej wezmą udział w konkursie na najlepszy poster I edycji Konferencji „Analityczne wyzwania”. Autorzy nagrodzonych posterów otrzymają kupon uprawniający do bezpłatnego udziału w jednej z najbliższych edycji Warsztatów Analitycznych. Warunkiem odbioru nagrody jest osobisty udział w sesji zamykającej konferencję

Wszyscy uczestnicy otrzymają certyfikaty potwierdzające udział w Konferencji.

Komitet naukowy

Speaker
prof. dr hab. Małgorzata Rószkiewicz,
Szkoła Główna Handlowa – przewodnicząca
Speaker
dr hab. Jolanta Perek-Białas,
Szkoła Główna Handlowa /// Uniwersytet Jagielloński – wiceprzewodnicząca
Speaker
prof. dr hab. Antonina Cebulska‑Wasilewska,
Instytut Fizyki Jądrowej PAN
Speaker
prof. dr hab. Jarosław Górniak,
Uniwersytet Jagielloński
Speaker
dr Sylwia Bedyńska,
SWPS Uniwersytet Humanistycznospołeczny
Speaker
dr inż. Anna Zygmunt,
AGH w Krakowie
Speaker
dr Joanna Karłowska-Pik,
Uniwersytet Mikołaja Kopernika w Toruniu

Ważne terminy

  • night

    nadsyłanie drogą elektroniczną streszczeń referatów w języku polskim

  • culture

    potwierdzenie przyjęcia referatu i kwalifikacja prezentacji (wystąpienie ustne/poster)

  • surprises

    zgłoszenie udziału w konferencji bez referatu

Informacje organizacyjne

  • location
  • location

    Wydział Informatyki, Elektroniki i Telekomunikacji
    Akademii Górniczo–Hutniczej im. Stanisława Staszica w Krakowie
    Pawilon D-17
    ul. Kawiory 21 / 30-055 Kraków

    Rejestracja w holu głównym
    12 grudnia 2017 / godz. 9.00–10.00

  • access

    GPS: N50.068186 / E19.912422

    Dojazd z dworca PKP:

    taksówką, np.:
    • ICAR / tel. 12 653 55 55
    • BARBAKAN / tel. 12 196 61

    komunikacją miejską, autobusami MPK z jedną przesiadką:
    z przystanku Kraków Główny Wschód > Plac Inwalidów 124 / 152 / 192 / 424 [ok. 10 minut]
    następnie:
    Plac Inwalidów > Kawiory 139 / 159 [ok. 5 minut]