This is an exceptional opportunity to delve into the data governance approach developed and deployed by the finalists and award winner of the European Best Data Governance Practice.
Data governance does not need be complex, invasive, nor bureaucratic. This workshop aims to reveal the vital components of and outline a path toward a value-driven data governance practice using a Diplomatic Data Governance approach. This data governance setup is designed to be proactive, utilizing the existing workforce and seamlessly integrating it into the current organizational.
This workshop draws on the experiences of organizations that have embraced the Diplomatic Data Governance approach. It reveals how they have focused on principles, behaviour, and knowledge while establishing their data practices. The workshop provides insights into how this data governance approach operates, how to set it up, and how to seamlessly integrate it with executive management, the operational organization, and IT.
Pobieranie biogramu... Proszę czekać...

This is an opportunity to learn the data governance approach that the best data governance practice finalists and award winners adopted. This session will outline a path to a value-creating data governance practice using the Diplomatic Data Governance approach. Such data governance aims to be proactive, to use the existing workforce and integrate that into the existing organization. Data governance does not need to be hard, strange, nor invasive.
This presentation contains experiences from organisations that have adopted the diplomatic data governance approach and reveals how they have focused on principles, behaviour, and knowledge while setting up their data practices. It will describe how this data governance approach works, how to set it up, how to integrate with the executive management, the operative organization, and with IT.
Organizations that have adopted this experience benefits as follows:
Chief Data Officer, który wdrażał data governance w dużej organizacji wie, że nie jest to proste zadanie - trzeba znaleźć balans pomiędzy jakością danych i czasochłonnością procesu, a elastycznością biznesową. A jakim wyzwaniem jest wdrażanie DG w grupie kapitałowej złożonej z ponad 300 spółek, działającej w różnych obszarach biznesu (B2B i B2C) w kilku krajach? Jak wdrożyć data governance, które będzie pomocą dla biznesu, a nie wąskim gardłem? Jak sprawić, by biznes sam zaczął domagać się standardów, widząc w nich bilet wstępu do świata AI?
Historia o budowaniu w Grupie Orlen kultury odpowiedzialności za dane w modelu federacyjnym, gdzie technologia staje się akceleratorem zmiany. Prezentacja o tym, jak za pomocą AI przełamać barierę skali i zautomatyzować onboarding właścicieli danych – dowodząc, że na starcie drogi, AI jest równie skutecznym narzędziem w rękach liderów danych, co biznesu.
Wszyscy dziś mówią o AI, ale my chcemy pokazać, jak wygląda prawdziwa historia oparta na uporze i konsekwencji – krok po kroku zmieniając organizację i udowadniając, że można wdrażać rozwiązania AI bez wielkich budżetów, zachowując pełne bezpieczeństwo danych oraz transparentność procesów. To nasza droga od problemu do rozwiązania. Przedstawimy proces zmiany: jak wdrożone innowacje przyniosły poprawę efektywności i otworzyły nowe, nieprzewidziane możliwości wykorzystania AI w organizacji, inspirując do dalszej transformacji cyfrowej. Skupimy się również na Data Governance jako fundamencie – wspierającym standardy dla danych wsadowych w AI.
Wraz z rozwojem AI, agentów analitycznych i interfejsów konwersacyjnych coraz częściej słyszymy, że klasyczne dashboardy przestaną być potrzebne, a biznes samodzielnie „porozmawia z danymi”. Czy to oznacza koniec zespołów wizualizacji danych? Zdecydowanie nie – AI zmienia eksploracji danych, ale jednocześnie zwiększa znaczenie standardów, kontekstu i odpowiedzialności za interpretację danych. Dashboardy nie znikają, lecz ewoluują - z narzędzi eksploracyjnych w kierunku świadomie projektowanych doświadczeń decyzyjnych.
Prezentacja o tym, które elementy pracy zespołów BI i data science ulegają automatyzacji, jak zmieniają się kompetencje ekspertów wizualizacji danych oraz jak przygotować organizację i platformę analityczną (Power BI Premium / Microsoft Fabric) na współpracę z AI.
W świecie nadmiaru danych śledczy i pracownicy medyczni mają trudność z szybkim łączeniem informacji z rozproszonych źródeł: istotne fakty giną w nieustrukturyzowanych materiałach. Stosowane narzędzia zmuszają ekspertów do ręcznego scalania dokumentów, obrazów i logów, zamiast wspierać wnioskowanie. Prezentacja omawia ograniczenia poznawcze analityków i ryzyko decyzji opartych na niepełnych danych.
Aby z bezładu informacji wyciągnąć sensowne wnioski stosujemy Networks Notebook – autorski system wykorzystujący technologię grafową. Łączy ono grafy wiedzy, otwarte modele LLM (Bielik, Llama, Qwen) i Business Intelligence. Pozwala to znacząco ogranicza szum informacyjny, redukując duże zbiory danych do kluczowych elementów. System ujawnia relacje niewidoczne w tradycyjnej analizie, dostarczając wyjaśnialne wyniki i skracając czas pracy. Eksperci mogą skupić się na interpretacji, a nie gromadzeniu informacji. Analiza grafowa działa w różnych branżach – od zwalczania przestępczości po medycynę.
Rok 2026 to koniec ery „compliance dla samej zgodności”. W obliczu nowej zimnej wojny technologicznej, odwrotu USA od paradygmatu trustworthy AI (eliminacja EO 14110) oraz unijnej fali deregulacji (Digital Omnibus Package), dotychczasowe podejście do wdrażania regulacji stało się balastem finansowym. W 2026 roku „good-enough compliance” nie jest zaniedbaniem, lecz kluczową kompetencją lidera danych. Podczas prezentacji zostanie zaprezentowany autorski model triażu regulacyjnego, który pozwala Chief Data Officerowi wyjść z roli „hamulcowego” i stać się strategicznym partnerem biznesu. Chłodna analiza świata, w którym dane są dobrem narodowym chronionym przez kapitał, pozwala uwolnić zasoby na monetyzację danych, zamiast przepalać je na walkę z legislacyjnym szumem.
Agenci LLM obiecują błyskawiczny dostęp do danych i decyzji. Ale co jeśli powiemy, że za ich sukcesem kryje się coś, czego nie widać na pierwszym slajdzie prezentacji? Prezentacja doświadczeń wdrożeń agentów: co sprawia, że agent przestaje zgadywać i zaczyna dostarczać powtarzalne wyniki. Zaprezentowane zostaną sprawdzone reguły „rób to / nie rób tego" - te same, które uratowały przed chaosem definicji wskaźników i sporami o dane. Słuchacze nową architekturę danych przyszłości: jak uporządkować definicje, źródła i jakość tak, żeby agent działał jak precyzyjny mechanizm, a nie loteria. To będzie praktyczny przepis z pierwszej ręki - prosta checklista i plan kroków, który działa w codziennej rzeczywistości firmy. Uczestnicy dowiedzą się dlaczego niektórzy mają agentów produkcyjnych, a inni wciąż poprawiają prompty.
W ok. 99% polskich miast nie funkcjonuje rola Chief Data Officera, a praca z danymi ma charakter doraźny, rozproszony i podporządkowany bieżącej obsłudze procesów administracyjnych. Taki model blokuje podejście strategiczne do danych, uniemożliwiając ich porównywalność, ponowne wykorzystanie oraz świadome zarządzanie jakością informacji na poziomie całej organizacji.
Propozycją rozwiązania jest rozporządzenie regulujące minimalny, kluczowy zasób danych, który wszystkie jednostki samorządu terytorialnego byłyby zobowiązane prowadzić w jednolitej formie. Omówione zostaną koncepcje wspólnych katalogów danych, standardów, słowników oraz metadanych, które zapewniałyby spójność semantyczną i techniczną danych w skali kraju.
Istotnym elementem koncepcji jest „marchewka”, czyli korzyści wynikające z wdrożenia jednolitych standardów danych. Należą do nich przede wszystkim możliwość rzetelnej i porównywalnej oceny samorządów na tle innych JST, opartej na rzeczywistych danych operacyjnych, a nie deklaratywnych ankietach. Równolegle przedstawiona zostanie „metoda kija”, czyli argumentacja za wprowadzeniem obowiązku prawnego oraz mechanizmów egzekucyjnych powiązanych z jego niespełnieniem.
W wielu organizacjach wdrożenia AI koncentrują się na szybkości, a nie na jakości wdrożenia. Projekty są implementowane w sposób oddolny i nieskoordynowany, stosując różne zasady wyboru projektów, oceny ryzyk oraz mierzenia sukcesu. Prowadzi to do realizacji działań ważnych lokalnie, lecz niekoniecznie kluczowych dla całej firmy, a także do pomijania ryzyk regulacyjnych, jakości danych i ograniczeń technologii, co zwiększa ryzyko niepowodzeńi obiektywnej oceny dotyczącej utrzymywania projektów.
Rozwiązaniem jest zarządzanie ujednoliconym portfelem inicjatyw AI na poziomie całej organizacji. Podczas prezentacji przedstawione zostanie takie podejście - od wyboru najlepszych pomysłów, przez skuteczną realizację projektów, po zarządzanie wdrożonymi rozwiązaniami.
Próba znalezienia odpowiedzi na pytanie: gdzie jest optymalny punkt pomiędzy zapewnieniem wysokiej jakości danych, które przełożą się na jakość analiz czy wdrożeń sztucznej inteligencji, a paraliżem decyzyjnym, który może spowodować obsesyjna pogoń za jakością danych. Coraz więcej organizacji zbiera dane w czasie rzeczywistym (real time data), co rodzi kolejne pytanie: jaki przyjąć punkt odcięcia danych do dalszej analizy?
Spotkanie dostępne tylko dla członków DAMA Poland Chapter.
Pobieranie biogramu... Proszę czekać...

Pobieranie biogramu... Proszę czekać...
