Warsztaty przygotują uczestników do samodzielnej analizy jakości danych i poprawy błędów zgodnie z najlepszymi praktykami.
Problemy z jakością danych to temat, który zazwyczaj znajduje się na pierwszym miejscu każdej ankiety w pytaniu o wyzwania i problemy do rozwiązania - prowadzonej wśród osób zajmujących się zawodowo danymi. W praktyce widać, jak wiele projektów analitycznych lub AI ma problemy na poziomie wdrożenia i uzyskania dodatniego ROI właśnie z powodu niepoprawnych danych. Zastosowanie praktyk analizy jakości danych na wczesnym etapie każdego projektu pomoże w zaadresowaniu problemów na jak najwcześniejszym etapie. Jest dzisiaj warunkiem koniecznym racjonalnego działania organizacji biznesowych.
Pobieranie biorgamu... Proszę czekać...
Podróż przez układ słoneczny systemu danych - w jaki sposób różne części organizacji danych mogą współdziałać, aby zmaksymalizować wartość. Dlaczego dane są nadal traktowane jako usługa, skoro leżą u podstaw wszystkiego, co robimy? Jaka jest prawdziwa różnica między danymi, cyfryzacją i sztuczną inteligencją - i dlaczego dane potrzebują własnej strategii? Dzięki przykładom i świeżym perspektywom uczestnicy otrzymają konkretne narzędzia do ponownego przemyślenia, w jaki sposób dane mogą napędzać innowacje i zrównoważony rozwój w organizacji.
*Prezentacja w języku angielskim. Organizatorzy nie zapewniają tłumaczenia.
Tradycyjne katalogi danych często pozostają pasywnymi repozytoriami wymagającymi specjalistycznej nawigacji i interpretacji. Ogranicza to ich skuteczność we wspieraniu proaktywnego zarządzania danymi i demokratyzacji danych. Tymczasem dzięki takim rozwiązaniom jak silnik kontekstowy, katalog danych może zostać przekształcony w aktywne, inteligentne centrum zarządzania danymi. Dlaczego? Ponieważ umożliwia naturalną, konwersacyjną interakcję z metadanymi i danymi, np. zwracając odpowiedzi na takie pytanie jak: "Pokaż mi wszystkie zbiory danych zawierające dane osobowe (PII) dotyczące klientów europejskich i kto jest ich właścicielem".
W świecie, gdzie algorytmy podejmują coraz więcej decyzji, tradycyjne podejście do data governance już nie wystarcza. Modele uczą się na danych, których jakość, pochodzenie i kontekst mają kluczowe znaczenie – a za to wszystko odpowiada Chief Data Officer. Prezentacja o tym, dlaczego AI Governance nie może istnieć bez silnego zakorzenienia w strategii danych i jak rola CDO ewoluuje z nadzorcy danych do architekta zaufania w świecie AI.
Wysokiej klasy specjaliści kompetentni w obszarze data, analityki i AI to osoby cenione na rynku pracy. Zawsze może się znaleźć organizacja, która jest w stanie przelicytować wysokość ich wynagrodzenia. Jak zarządzać zespołem utalentowanych i ambitnych ludzi, by zapewnić ich lojalność i wysoką produktywność? Jakie stawiać im cele, by były dla nich wyzwaniem intelektualnym, ale zarazem nie doprowadzić do wypalenia zawodowego z powodu zbyt dużej liczby zadań czy ich jednorodności wymaganej przez biznes? Jak budować przestrzeń dla rozwoju zawodowego i inspiracji dla członków takiego zespołu wobec efektywnościowych oczekiwań organizacji?
mBank zmagał się z problemami typowymi dla dużych organizacji – dane rozproszone w systemach, silosy, brak spójnych definicji, a dostęp wymagał specjalistycznej wiedzy i czasu. Dane zlokalizowane w kilku hurtowniach różniły się. Aby to uporządkować wdrożony został framework data governance i centralna hurtownia danych, która zintegrowała rozproszone źródła i ustanowiła jedno źródło prawdy dla kluczowych informacji biznesowych. Nowe podejście rozwiązało wiele problemów, ale pojawiły się kolejne wyzwania: żeby z danych korzystać, trzeba było wiedzieć, gdzie są, jak je połączyć i jak napisać zapytanie, które da wartość.
I wtedy przyszedł czas na prawdziwą zmianę: GenAI. Rozwiązanie, które otwiera dane dla szerszego grona odbiorców. Teraz osoby korzystające z narzędzia mogą zadawać pytania biznesowe w naturalnym języku, a system zwróci gotowe zapytanie SQL, działające bezpośrednio na hurtowni danych. To kolejny etap dojrzewania naszego podejścia do danych – od chaosu, przez porządek i kontrolę, aż po prawdziwą demokratyzację dostępu do informacji.
Case study projektu zarządzania danymi referencyjnymi zrealizowanego w grupie Medicover. Od genezy (dlaczego temat danych referencyjnych stał się istotny i jakie były wyzwania przy identyfikacji ich źródeł w korporacyjnej platformie danych) poprzez architekturę rozwiązania, narzędzie zintegrowane z Microsoft Azure oraz współpracujące z platformą danych opartą na Databricks.
Przedstawione zostaną wdrożone słowniki referencyjne oraz ich powiązania z data governance – w tym mechanizm ownershipu, który pomógł uporządkować i ustandaryzować dane w organizacji.
Podsumowanie podróży od ręcznych przepływów pracy opartych na Excelu, do w pełni zintegrowanego rozwiązania data lakehouse w celu automatyzacji i usprawnienia analizy badań klinicznych. Kluczowe zagadnienia:
- osiągnięcie skoku dojrzałości danych: jak organizacja przeszła od niedojrzałości danych (poziom 1) do bardziej zaawansowanego stanu (poziom 3) w ciągu roku,
- koncentracja na wartości biznesowej ponad technologią: priorytetowe traktowanie wartości dla interesariuszy nad skalowalnością technologii,
- iteracyjne, zwinne podejście do sukcesu: regularne prezentowanie prototypów i uwzględnianie informacji zwrotnych,
- Zrozumienie potrzeb interesariuszy: uzyskanie kompleksowego zrozumienia różnorodnych wymagań interesariuszy, ich procesów danych i celu analiz.
Czy monitoring danych może być czymś więcej niż tylko technicznym obowiązkiem IT? Może - i powinien, ale zanim w Banku Gospodarstwa Krajowego tak się stało, dział odpowiedzialny za zarządzanie danymi musiał się zmierzyć z szeregiem wyzwań. Z jednej strony ogromne ilości przetwarzanych danych, rozproszone systemy i niespójność informacji, a z drugiej opór biznesu przed jakąkolwiek kontrolą. Case study z wdrożenia monitoringu jakości danych: co zadziałało, a co nie, jak udało się przełamać niechęć biznesu. Pokazana zostanie droga od pierwszych kroków, aż po moment, w którym właściciele danych zaczęli dostrzegać sens dbania o jakość danych. Praktyczna prezentacja na temat wyzwań zarządczych oraz praktycznego wykorzystania narzędzia do monitorowania danych CDO.tools DQM.
Jak zbudować fundamenty data governance w dużej organizacji? Od czego zacząć i jak określić kierunki działania? Case study z tworzenia roadmapy data governance w LOT: jak krok po kroku, z udziałem biznesu wypracować jasno określone ramy działania i plan wdrożenia - uwzględniając strategiczne cele firmy oraz potrzeby pracowników.
Ręczne definiowanie reguł kontrolnych jakości danych jest czasochłonne, a zakres badanych danych jest wciąż za wąski w stosunku do potrzeb. Case study ING Banku Śląskiego - jak stworzone przez zespół banku narzędzie ML, które automatycznie wykrywa potencjalne nieprawidłowości w danych zgormadzonych w hurtowni. Żadnych sztywnych reguł, żadnych przeoczeń. Machine learning oszczędza czas, redukuje ryzyko - algorytm może stać się partnerem w zarządzaniu danym.
Historia wdrożenia systemu predykcyjnego w Grupie Neuca, który miał prognozować potencjały zakupowe klientów na rynku. Niestety, nie osiągnął oczekiwanej skuteczności. Powodem były dane, na których trenowano model. Case study pokazujące czego zabrakło w obszarze danych, aby skutecznie wytrenować model predykcyjny.
Katalog danych nie jest jedynie technicznym repozytorium – stają się kluczowymi generatorami wartości biznesowej. Ale jak wybrać właściwy katalog, który sprosta zarówno potrzebom technologicznym, jak i strategicznym? Jak przekształcić go w narzędzie, które napędza decyzje, zwiększa efektywność i buduje przewagę konkurencyjną? Prezentacja będzie inspirującą podróżą od metadanych do realnej wartości biznesowej. Słuchacze dowiedzą się:
Data is more strategic than ever, but data leaders still struggle with influence and alignment. The transition from technical expert to business leader is a key challenge. Presentation about the shifting role of data leadership in enterprises – how they role evolve from traditional Chief Data Officer to the roles like AI Governance Lead and Data Strategist. What can we expect in next 2-3 years: what AI automation will change on data roles and what won’t, key skills and leadership traits needed to stay relevant and influential.
*Prezentacja w języku angielskim. Organizatorzy nie zapewniają tłumaczenia.
Dlaczego warto wziąć udział w sesji roundtables na CDO Forum?
👉 Jako uczestnik dyskusji przy okrągłym stole wymienisz się opiniami i doświadczeniami z osobami o różnym poziomie doświadczenia, w zróżnicowanych branżach. Część z nich zmaga się z podobnymi wyzwaniami, część już je rozwiązała i może podzielić się swoją drogą. Dzięki temu spojrzysz na dany problem z różnych perspektyw i znajdziesz odpowiedzi na swoje wątpliwości.
👉 Dyskusje prowadzą eksperci z ogromną wiedzą i doświadczeniem, więc możesz liczyć na wartościowe wskazówki oraz inspiracje! Tematyka dyskusji jest tak różnorodna, że na pewno znajdziesz wartościową pozycję dla siebie!
👉 To idealne miejsce, aby nawiązać nowe kontakty i wymienić się praktycznymi doświadczeniami w atmosferze otwartej dyskusji! Rozpoczęte rozmowy bardzo często przenoszą się w kuluary, a nawet poza konferencję
Wybierz temat dla siebie!
W organizacji o niskiej dojrzałości zarządzania danymi, obowiązki związane z tym obszarem są traktowane przez biznes jako nadmierna regulacja i zbędna biurokracja. Czy możliwa jest zmiana paradygmatu tak, aby to biznes stawiał przed zespołem ds. danych zadania w obszarze data governance? Jak budować zrozumienie, że dane są strategicznym aktywem? Jak powiązać zarządzanie danymi z celami i wynikami biznesowymi?
Organizacje gromadzą wiele danych, ale często z zazdrością patrzą na inne sektory, które potrafią mieć dane, których zdobycie jest dla nich wręcz marzeniem. Czy takie projekty jak European Language Data Space, który ma za zadanie wymianę wysokiej jakości danych językowych rozwiną rozwój sektora danych? Czy powstaną marketplace dla poszczególnych sektorów gospodarki?
W bardzo tradycyjnym ujęciu dział danych i jego przełożony, to ci, którzy pilnują przestrzegania zasad – przypominają o data governance, szukają błędów i poprawiają je. Ale w świecie, w którym dane są coraz ważniejsze CDO może być w epicentrum transformacji cyfrowej przedsiębiorstwa – kreować nową wartość biznesową, współpracować w projektach AI i przekształcać całą organizację. Jak to zrobić, aby w roli Chief Data Officera być partnerem zarządu w budowaniu strategii organizacji, a nie petentem, który jest zapraszany do rozmów tylko jak trzeba zadziałać reaktywnie?
Historia wykorzystania danych ustrukturyzowanych z wykorzystaniem maszyn obliczeniowych ma już dobrych kilka dekad. Rozwój cyfrowych mediów i kanałów komunikacji spowodował, że w organizacjach wielokrotnie więcej danych jest w formie nieustrukturyzowanej: milionów e-maili, tysięcy zdjęć, nagrań video, nagrań rozmów z contact center, itd. Właśnie tam znajduje się to, czego nie widać w ustrukturyzowanych tabelach. Czy umiejętność analizy danych nieustrukturyzowanych może być źródłem przewagi konkurencyjnej? Czy organizacje, które poradzą sobie z tym wyzwaniem wyprzedzą tych, którzy nadal zatrzymają się na analizie danych ustrukturyzowanych?
Administracja państwowa zbiera bardzo duże ilości danych, w urzędach centralnych są one liczone w petabajtach. Współpraca pomiędzy sektorem państwowym a komercyjnym może przynieść korzyści obu stronom: generować nowe szanse biznesowe dla firm, ale zwiększać też jakość usług dla obywateli. Jak robić to efektywnie, skutecznie i z poszanowaniem prywatności?
Jak pogodzić dwa sprzeczne wektory: potrzebę ochrony danych i zapewnienia zgodności z przepisami prawa względem potrzeby zapewnienia elastyczności biznesowej? Dyskusja, która powraca (i będzie powracać), bo liczba regulacji cały czas rośnie, zmieniają się także technologie, a tym samym wyzwania związane z prywatnością.
Zgodnie z nazwą Large Language Models powinny świetnie radzić sobie z przetwarzaniem tekstu, ale niekoniecznie z analizą liczb. Zespół Żabka Polska postanowił zweryfikować tę tezę i sprawdzić, czy Gen AI może wspierać analityków, a nawet częściowo zastąpić zadania młodszych specjalistów w pracy z danymi. Wnioski z budowy in-house rozwiązania, które pozwoliłoby botowi AI odpowiadać na pytania dotyczące danych biznesowych, takich jak wyniki sprzedażowe. Prezentacja ma na celu zainspirowanie do eksperymentowania z LLM w kontekście analityki oraz podzielenie się praktycznymi wskazówkami na podstawie realnego wdrożenia.
Poprawa jakości danych jest niezbędnym etapem przygotowania danych do użycia w zastosowaniach analitycznych oraz AI. Zespoły data governance mają dwie opcje: incydentalne testowanie i czyszczenie danych w trakcie projektów lub systemowe mierzenie i poprawianie błędów we wszystkich kluczowych zbiorach danych. To drugie podejście jest kosztowne bez właściwej priorytetyzacji, ponieważ żaden zespół nie jest w stanie przeanalizować tysięcy tabel.
Prezentacja o tym jak zastosować metodologię Agile do zarządzania zespołem jakości danych. Podejście zweryfikowane w bardzo dużym zespole, w trakcie ponad czteroletniego projektu poprawy jakości danych.
Zeszłoroczne laureatki głównych nagród – Projekt Roku oraz Lider Roku – podzielą się swoim przepisem na sukces. Widzowie poznaą sprawdzone praktyki oraz przykłady, jak działające data governance wspiera wdrażanie rozwiązań AI i zaawansowanej analityki.
Projekt Roku – Dane jasne jak słońce – wyróżnia się kompleksowym podejściem do tematu zarządzania danymi i codziennej aktywności CDO - od działań edukacyjnych oraz nieszablonowej, szerokiej komunikacji skierowanej do wszystkich pracowników firmy, budowaniu świadomości znaczenia danych i odpowiedzialności każdego pracownika za ich jakość, po konkretne procesy biznesowe i narzędzia pomagające mierzyć i monitorować dane i ich jakość.
Lider Roku – nagroda otrzymana za przywództwo nakierowane na skuteczne i bezpieczne wykorzystanie danych do uzyskiwania wartości biznesowej. Rozumienie potrzeb organizacji i umiejętność współpracy z CDO i innymi działami pozwoliło na zbudowanie efektywnego procesu wytwórczego modeli AI i zaawansowanej analityki, opartego na najlepszych praktykach zarządzania danymi, a w efekcie do osiągnięcia mierzalnych sukcesów biznesowych.
W drodze do bycia „data-driven” organizacje muszą odpowiedzieć na trudne pytanie: w jaki sposób korzystać z danych, aby korzyść biznesowa była jak największa. Odpowiedzią może być koncepcja Platformy Zarządzania Cechami Analitycznymi (Feature Engineering Platform). Prezentacja odpowie na kluczowe pytania: dlaczego zbudowanie takiego repozytorium jest potrzebne, jakie i ile tych danych warto w niej przechowywać, które funkcjonalności platformy są kluczowe oraz w jakich przypadkach potrzebujemy danych online, a kiedy niekoniecznie. A wszystko to na podstawie doświadczeń ze zrealizowanych projektów i wdrożeń o różnej skali i stopniu skomplikowania.
Hiszpańskie linie lotnicze AirEuropa skróciły czas dostarczenia danych o połowę. Jak? Z pomocą przyszła orkiestracja danych, która jest jednym z ważnych elementów DataOps Manifesto. Zaprezentowane zostaną też inne przykłady zastosowania orkiestracji, która pozwoliła na utrzymanie SLA przy rosnącej skali.
Case study z zastosowania automatyzacji i generatywnej sztucznej inteligencji (GenAI) do wsparcia zespołów odpowiedzialnych za zarządzanie jakością danych oraz data governance w firmie windykacyjnej BEST S.A. Prezentacja o tym jak:
- automatyzacja reguł jakości danych redukuję liczbę błędów, przyspiesza pracę, a także poszerza zakres badanych danych i pozwala je utrzymać w standardzie DAMA;
- dzięki poprawie jakości danych kontaktowych firma skuteczniej odzyskuje należności;
- tworzenie złożonych zapytań SQL eliminuje braki w wiedzy technicznej użytkowników i wspomaga demokratyzację danych;
- GenAI umożliwia szybką analizę i profilowania danych w procesach migracji oraz automatyczne wykrywa anomalie i niespójności w danych;
- automatyzacja śledzenia pochodzenia danych (data lineage) również wspiera szybkie wykrywanie błędów i lepsze rozumienie procesów.
Implementacja procesów architektury korporacyjnej w banku obejmuje podział na odrębne domeny, takie jak biznes, dane, IT i bezpieczeństwo. Na dużym obrazie architekci danych odgrywają kluczową rolę w budowaniu modelu danych przedsiębiorstwa, zapewniając dokładne odwzorowanie i integrację danych w całej organizacji. Budowa repozytorium architektury jest niezbędna do powiązania informacji między elementami dostarczanymi przez każdą z domen, co ułatwia kompleksowe zarządzanie danymi. Ostatecznym celem jest uzyskanie pełnego pokrycia ścieżki danych, wykorzystującrRepozytorium do śledzenia i zarządzania przepływem oraz transformacjami danych w całym przedsiębiorstwie.
Dane o idealnej jakości? Nawet jeżeli Chief Data Officer skutecznie wdroży data governance i będzie zbierał bezbłędne dane, to pozostaje kwestia gigabajtów, a nawet terabajtów danych z przeszłości. Błędy mogą być najróżniejsze: błąd pomiaru czujników, literówki, wielkość liter, itd. Ręczna weryfikacja w przypadku dziesiątek milionów rekordów jest niemożliwa i nieopłacalna.
Sztuczna inteligencja nie tylko potrzebuje wysokiej jakości danych, ale może też… pomóc poprawić jakość danych w organizacji. Prezentacja na temat różnych rodzajów błędów oraz o autorskich metodach ich wykrywania z wykorzystaniem modeli językowych (LLM), klasycznych narzędzi NLP, modeli typu BERT oraz narzędzi wizji komputerowej (VLM) na przykładzie danych dużego katalogu produktów.
Prezentacje danych nie trafiają w cel? Cóż… Jak mawia Edward Tufte, „coś jest nie tak albo z danymi, albo ze słuchaczami”. Dashboardy i wykresy stały się obowiązkowym elementem spotkań, ale niestety coraz rzadziej prowadzą do prawdziwych insightów. Podoba nam się to czy nie, potrzebna jest historia, czyli ustrukturyzowane podejście do spostrzeżeń, które wynieśliśmy z analizy danych. Historie bardziej zapadają w pamięć i lepiej przekonują niż same statystyki. Jednak potrafią też uśpić czujność odbiorców. Celem komunikacji danych nie jest ich zaraportowanie, jest nim wpływanie na działania, czyli w dłuższej perspektywie powodowanie zmiany. To wystąpienie pozwoli zrozumieć jak data storytelling łączy logikę (czyli dane) z emocją (czyli narracja), co jest kluczowe w procesie decyzyjnym. I pokaże przykłady nadawania kontekstu i znaczenia danym przez narrację.
Historia budowy platformy danych w Autopay: jakie niekonwencjonalne decyzje podjęto, aby utrzymać prostotę rozwiązania, budować zaufanie do danych i budować środowisko, w którym informacje są przekuwane w wiedzę, decyzję i działania. Podstawowym kryterium budowania rozwiązań w tym projekcie była prostota, która ma to do siebie, że… działa!
Główny Urząd Statystyczny to instytucja, w której dane odgrywają kluczową rolę. W celu zwiększenia wykorzystania pozastatystycznych źródeł danych w badaniach GUS, w 2023 r. uruchomiono program rozwojowy Akademia Data Science (ADS). Po dwóch latach jego działania można podsumować, jak Akademia rozwija kompetencje pracowników, przekształcając analityków w data scientistów, oraz jakie nowe źródła danych wykorzystują w swojej pracy.
W szybko zmieniającym się krajobrazie zarządzania danymi EU Data Act oraz EU AI Act stanowią dwie z najważniejszych ram regulacyjnych wpływających na sposób, w jaki organizacje przetwarzają i wykorzystują dane Projekt zbada ramy prawne unijnej ustawy o danych i ustawy o sztucznej inteligencji, koncentrując się na ich wpływie na praktyki zarządzania danymi. Omówione zostaną wymagania dotyczące zgodności, potencjalne wyzwania prawne i strategie dla organizacji w celu dostosowania ich strategii zarządzania danymi w celu zachowania zgodności.
Po pierwszym dniu konferencji zapraszamy na integrację i dyskusje w nieformalnej atmosferze.
Spotkanie dostępne tylko dla członków DAMA Poland Chapter.
Pobieranie biorgamu... Proszę czekać...
Pobieranie biorgamu... Proszę czekać...