Tomasz Burzyński
InPost
Data Enablement Tribe Lead, T-Mobile Polska
Head of the Laboratory of Databases and Business Analytics Systems, Ośrodek Przetwarzania Informacji - Państwowy Instytut Badawczy
Dyrektor Analityki i Data Science, Grupa Żabka
Dyrektor Analityki i Data Science, Grupa Żabka
Łączymy analitykę danych i twardy biznes
Pana misją jest nadawanie sensu danym – jak to się przekłada na praktyczne działania?
Nadawanie sensu danym polega ich odpowiednim zaprezentowaniu, dodaniu kontekstu i zadbaniu, aby w konsekwencji przyniosły wartość. W tym procesie wsadem są surowe dane, a rezultatem są raporty, analizy czy modele uczenia maszynowego.
Jak to wygląda w praktyce? Wyobraźmy sobie obszar sprzedaży. Na podstawowym poziomie możemy przez analizę danych sprawdzić trendy: czy sprzedaż spadła, czy wzrosła. Czy jej poziom jest zgodny z założeniami dla poszczególnych kategorii produktów, czy regionów geograficznych. Na kolejnym poziomie analizy szukamy odpowiedzi na pytanie, dlaczego sprzedaż się zmieniła. Szukamy przyczyn wzrostu czy spadku przez określenie wpływu różnych czynników wewnętrznych (tj. promocje) czy też zewnętrznych (pogoda czy czynniki makroekonomiczne).
Jeszcze ciekawsze jest pytanie, co się może stać: prognozujemy, jaka będzie sprzedaż w przyszłości na tydzień, miesiąc, a nawet na rok. Takie prognozy pozwalają na przykład franczyzobiorcy zamówić odpowiednią ilość towaru czy zespołowi logistyki przygotować odpowiedni zapas towaru w magazynach przed planowaną akcją promocyjną.
Najbardziej zaawansowane rozwiązania opierają się na przygotowaniu rekomendacji. Ten aspekt analityki jest najbardziej wymagający zarówno dla mojego zespołu, jak i biznesu. Wymaga dużego zaufania do danych i modelu analitycznego, ale daje też najbardziej wymierne korzyści. Przykładem może być rekomendacja dotycząca konkretnej wielkości zamówienia, czy też rekomendacja liczby bułek, które kasjer powinien o konkretnej godzinie wstawić do opiekacza.
Jakimi danymi karmicie ten system?
Do analiz i modelowania wykorzystujemy dane z wielu różnych źródeł. Są to dane wewnętrzne z naszych systemów: system kasowy, programy magazynowe, transportowe, czy dane pochodzące z aplikacji mobilnej. Rozwiązania opieramy również o dane pochodzące ze źródeł zewnętrznych: otwartych oraz komercyjnych (informacje o pogodzie, dane demograficzne i makroekonomiczne).
Kiedyś mówiło się, że najcenniejszym zasobem w firmie są ludzie. Teraz coraz częściej słychać, że to dane są kluczowe.
Uważam, że pracownicy są najważniejszym zasobem w firmie – bez nich te cenne dane leżałyby na serwerze i jedynie generowały koszty. Dane zaś mają wartość dopiero wtedy, kiedy ktoś z nich korzysta. To od umiejętności i talentu ludzi w różnych rolach zależy, w jaki sposób z danych skorzystamy i czy uda się przy ich pomocy znaleźć możliwości poprawy naszej oferty dla klientów, obniżyć koszty np. przez automatyzację procesów, podejmować lepsze decyzje lub działać w sposób bardziej zrównoważony np. zmniejszyć ślad węglowy lub zużycie plastiku.
Żabka nie jest firmą z branży IT i nie kojarzy się na pierwszy rzut oka z organizacją opartą na danych. Jak to się stało, że znalazł Pan w niej swoje miejsce?
Grupa Żabka ma ambicję, aby być topową firmą technologiczną, pomimo że nie działa w branży IT. I nie jest to odrealnione marzenie, ale kierunek strategiczny z konkretnym działaniami i sukcesami – o czym chociażby świadczą liczne nagrody i uznanie ekspertów za wdrożenia w Żabce innowacyjnych rozwiązań.
Istotnym elementem, który przekonał mnie do dołączenia do zespołu Żabki, były rozmowy z kierownictwem i ich przeświadczenie o konieczności budowy kultury data-driven. Ta ambicja widoczna była na poziomie zarządu. Utworzenie mojego departamentu miało przyspieszyć proces transformacji do organizacji opartej na danych. Zaczynając od członków zarządu i kierownictwa wszyscy byli przekonani, że Żabka powinna wykorzystywać dane we wszystkich kluczowych procesach. Ja biorę udział w tej transformacji od czterech lat.
Udało się przekonać wszystkich?
Od organizacji czysto technologicznych Żabkę odróżnia połączenie praktyki, czyli sprzedaży i twardego biznesu z analityką danych. Otwieramy ponad tysiąc sklepów rocznie, zatem decyzji, które trzeba podejmować, jest tak dużo, że nie muszę nikogo przekonywać co do zasadności transformacji. Każdy przedstawiciel biznesu widzi korzyści z rozwiązań analitycznych, zatem transformacja mentalności już się dokonała.
Może to efekt tego, że nie jest Pan inżynierem?
Moje osobiste doświadczenie zdobyłem w konsultingu, kontrolingu i wreszcie w raportowaniu i analityce w międzynarodowych koncernach. Od początku kariery pracowałem z danymi – na początku ze „small data”, potem coraz bardziej z big data. W pewnym momencie stwierdziłem, że analityka interesuje mnie bardziej niż klasyczne finanse i w pełni poświęciłem się zdobywaniu kompetencji w zakresie efektywnego przetwarzania, interpretacji danych oraz prezentacji wniosków.
Czyli doświadczenie IT nie jest koniecznie?
Bez znajomości technologii nie da się pracować w analityce i data science. Ciężko też być szefem zespołów analitycznych. Według mnie każdy dobry manager w obszarze data powinien być jednocześnie pasjonatem tej tematyki, samemu rozwijać swoje kompetencje, być na bieżąco z tym, co się dzieje na rynku i inspirować innych liderów oraz pracowników. Od lidera nie oczekuje się, że samemu będzie na co dzień programował czy modelował – ale praktyczne doświadczenie w tym obszarze zdecydowanie się przydaje nawet w rolach, które pełni lider w obszarze data tj. ambasadora rozwiązań opartych o dane, mówcy, a szczególnie stratega.
W jaki sposób zbudować w firmie kulturę danych? Jak przekonać ludzi do zmiany?
Nie przekonywać, ale mówić językiem korzyści. U nas sprawdziło się znalezienie w organizacji naturalnych promotorów – tych menedżerów, którym zależy, którzy widzą potrzebę i podążają za nowinkami oraz przekonanie ich, aby stali się ambasadorami zmiany na przykładzie własnych obszarów. Nie ma sensu zaczynać do transformacji od kogoś, kto nie czuje, że analityka czy AI są mu potrzebne.
Tak pracowaliśmy w przypadku systemu Business Intelligence w Żabce kilka lat temu. Zaczęliśmy od kilku obszarów, pokazaliśmy, że umiemy i że nowoczesne analityka przynosi konkretne efekty. W ten sposób wykreowaliśmy potrzebę w całej firmie. Podobnie teraz działamy z rozwiązaniami opartymi o generatywną sztuczną inteligencję.
Równie ważne jest zadbanie o stały rozwój kompetencji zarówno wśród odbiorców rozwiązań analitycznych, jak i wśród samych deweloperów. Pomaga przy tym stworzenie społeczności, dzięki której jest przestrzeń na wymianę doświadczeń, inspiracje i współpracę.
Jak wdrożenie rozwiązań bazujących na sztucznej inteligencji zmieni funkcjonowanie Żabki?
Rozwiązania z zakresu sztucznej inteligencji w Żabce wdrażamy już od wielu lat i działają one z powodzeniem w wielu obszarach – to chociażby wspomniane wcześniej modele predykcyjne czy systemy rekomendacyjne oparte na „klasycznych” metodach uczenia maszynowego. W oparciu o modele AI działają np. sklepy bezobsługowe Nano. Modele wykorzystywane są również np. do szacowania potencjału nowych lokalizacji. W tym roku magazyn Forbes przyznał Grupie Żabka pierwsze miejsce w rankingu firm, które w najbardziej innowacyjny sposób wykorzystują rozwiązania oparte na sztucznej inteligencji.
A narzędzie takie, jak ChatGPT?
Nowością we wszystkich organizacjach jest wykorzystanie generatywnej sztucznej inteligencji. Uczymy organizację, jak GenAI wykorzystać w codziennej pracy. Wszystkim w firmie w środowisku Teams umożliwiliśmy na korzystanie z najnowszej wersji GPT 4.0. Jest to doświadczenie porównywalne do rozmowy na komunikatorze z innym pracownikiem. Organizujemy warsztaty, na których pokazujemy, jak efektywnie korzystać z takiego chata, żeby zautomatyzować swoje rutynowe działania lub pomóc swojej kreatywności, przy okazji omijając problemy GenAI.
Mój zespół buduje w tej chwili kilka bardziej rozbudowanych rozwiązań prototypowych w oparciu o generatywną sztuczną inteligencję – np. bot, który wspiera pracowników przy odpowiedziach z zakresu HR (czyli odpowiedzi chata wzbogacone są o informacje pochodzące z wewnętrznych dokumentów, procedur czy intranetu). Budujemy też algorytm, który w oparciu o GPT uzupełnia metadane produktowe, automatyzując pracę do tej pory wykonywaną ręcznie. Jednym z testowanych rozwiązań jest „śniadaniowiec” – bot, który rekomenduje produkty Żabki na podstawie wskazanych przez konsumenta oczekiwań – np. elementów diety. Testujemy też, jak dzięki Gen AI przyspieszyć klasyczne zadania analityczne.
Head of the Laboratory of Databases and Business Analytics Systems, Ośrodek Przetwarzania Informacji - Państwowy Instytut Badawczy
Odpowiada Pan za ciągłość pracy systemów bazodanowych i analitykę danych. Co jest w tym zadaniu najtrudniejsze?
Moją główną odpowiedzialnością jest zapewnienie ciągłości pracy i bezpieczeństwa wszystkich systemów bazodanowych, które wykorzystujemy w Ośrodku Przetwarzania Informacji (OPI) oraz dbanie o najwyższą jakość zaawansowanej analityki danych w naszej organizacji. W dużym uproszczeniu mogę powiedzieć, że odpowiadam za dane, ich składowanie, przetwarzanie, bezpieczeństwo, a na końcu także ich analizę. Ten ostatni etap zapewnia odpowiednie wykorzystanie danych w procesach decyzyjnych. Korzystamy z różnych technologii, zarówno open-source, jak i komercyjnych. Zarządzam zespołem ekspertów baz danych, analityków, programistów oraz naukowców prowadzących badania w obszarze naukometrii.
Jak liczny jest Pana zespół?
W tej chwili zespół Laboratorium Baz Danych i Systemów Analityki Biznesowej OPI liczy 43 osoby. Warto dodać, że jeszcze w 2022 roku było to 20 osób, a zatem w ciągu roku urośliśmy o 100 proc. Największa część zespołu zajmuje się szeroką rozumianą analityką danych i data science oraz automatyzacją procesów raportowania operacyjnego. Te kompetencje zespołu pozwalają odpowiedzieć na większość potrzeb naszych klientów wewnętrznych i zewnętrznych. Głównym odbiorcą naszych analiz jest Ministerstwo Edukacji i Nauki (MEiN) oraz organizacje działające na rzecz nauki i szkolnictwa wyższego w Polsce.
Oprócz tego, że jesteśmy instytutem badawczym i prowadzimy projekty naukowe, jesteśmy także software housem, który wytwarza oprogramowanie na zlecenie MEiN, a co za tym idzie, działamy w obszarze szczególnie mocno regulowanym przez ustawy i rozporządzenia. To na podstawie powszechnie obowiązującego prawa definiujemy dużą część wymagań biznesowych wytwarzanych przez nas systemów. Co więcej, niezwykle istotna jest nasza odpowiedzialność za zapewnienie dostępu do zbieranych przez nas danych. Jesteśmy zobowiązani do udzielania odpowiedzi w trybie informacji publicznej, w zakresie danych, które przetwarzamy w imieniu ministerstwa.
I rzeczywiście ludzie występują o te dane?
Każdy obywatel ma prawo wysłać zapytanie o sprawy związane z edukacją i nauką. Często zdarzają się prośby o takie dane na potrzeby ciekawych projektów naukowych lub społecznych. Cieszymy się, kiedy możemy mieć swój udział w takich inicjatywach, dostarczając rzetelne i aktualne dane. Oczywiście zawsze dbamy o bezpieczeństwo i ochronę danych.
Ma Pan szerokie kompetencje techniczne – czy wiedza techniczna jest kluczowa dla menedżera?
Są dwie szkoły: pierwsza zakłada, że dobry menedżer nie powinien mieć wiedzy technicznej, druga, że powinien. Ja sam przeszedłem ścieżkę od inżyniera analityka, przez programistę, team leadera i wreszcie szefa dużego zespołu. Ale jeśli pan pyta, czy wiedza techniczna jest szefowi potrzebna, to odpowiadam: nie, lecz jest przydatna, gdy trzeba coś oszacować czy podjąć decyzję. Chodzi o to, aby móc szybko odpowiedzieć, czy termin realizacji jest osiągalny, czy dany problem da się rozwiązać przy użyciu konkretnych narzędzi itp. Taka wiedza przydaje się także w procesie kreowania silnego merytorycznie zespołu.
Gdyby miał Pan wskazać swój największy sukces, to byłoby nim…
Za największy sukces uważam wdrożenie centralnej hurtowni danych, która optymalizuje procesy w całym sektorze edukacji i nauki. Za to właśnie odpowiadam w OPI od początku mojej pracy w 2017 roku. Przechodziłem przez wszystkie etapy tego procesu – zaczynaliśmy od przetargu na sprzęt i oprogramowanie. I tak, krok po kroku, powstawały nowe zasoby informacyjne, nowe raporty, baza zapełniała się danymi, powstawały pulpity informacyjne - dostarczające ważne wskaźniki pozwalające monitorować rozwój sektora.
Centralna hurtowania danych dała podwaliny do stworzenia zaawansowanych narzędzi analitycznych. Naszą hurtownię wykorzystuje wiele systemów, takich jak RAD-on, czyli platforma publiczna dostarczająca dane o szkolnictwie wyższym i edukacji, naukowcach i ich publikacjach czy projektach oraz dostarczająca narzędzia do analizy tych danych. Dzięki hurtowni zoptymalizowaliśmy procesy raportowe do podziału środków budżetowych pomiędzy uczelniami, uprościliśmy interfejsy dla odbiorców i dostawców danych. Zautomatyzowaliśmy interfejs z innymi resortami, np. e-PIT z Ministerstwem Finansów.
Powiedział Pan, że budowanie kultury danych to proces, który nie ma końca. Kiedy można jednak uznać, że taki projekt odniósł sukces?
Każdy proces można opisać za pomocą różnorodnych i ciekawych metryk. Najważniejsze dotyczą jakości danych, bo jakość bezpośrednio przekłada się na zadowolenie klientów oraz wiarygodność przygotowywanych analiz. Wzrost jakości danych dość jednoznacznie wskazuje na sukces projektów związanych z zarządzaniem danymi.
Doświadczenie pokazało mi także, że kluczowym miernikiem jest świadomość zakresu posiadanych danych i ich wartości. Jeżeli organizacja rozumie, jaką wartość mają gromadzone przez nią dane, to jest to znak, że posiada rozwiniętą kulturę danych. Oczywiście proces ten zajmuje wiele czasu i wymaga systematycznej pracy wykorzystującej kompetencje techniczne, ale także komunikacyjne. Najlepsze efekty osiąga się poprzez bezpośrednie rozmowy z ludźmi, pokazywanie korzyści płynących z mądrego zarządzania danymi oraz tego, że wysiłek włożony w przygotowanie danych zwraca się z nawiązką.
Czy w instytucie badawczym również trzeba pokonywać opór materii ludzkiej?
Nawiązuje Pan do naszej ludzkiej natury, która nie lubi zmian. Opór ludzi jest wszędzie. Najkrócej mówiąc, dokładając ludziom pracy, nie uszczęśliwiamy ich. Rolą lidera jest w takiej sytuacji wskazanie korzyści wynikających z tego mozolnego przedsięwzięcia. Szczerze mówiąc, byłem pozytywnie zaskoczony tym, że w naszym instytucie opór przed zmianą nie był duży. Pewnie należy to tłumaczyć tym, że nasz instytut przetwarza dane od początku swojego istnienia, czyli od lat 90-tych, a co za tym idzie większość pracowników rozumie wartość gromadzonych przez nas danych. Myślę, że w firmach komercyjnych, które dopiero niedawno zaczęły interesować się danymi na dużą skalę, opór ludzi może być znacznie większy.
Zajmuje się pan również narzędziami low-code. Jak one się sprawdzają w tym konkretnym obszarze?
Zaczęliśmy sprawdzać narzędzia low-code podczas pandemii COVID-19. Udało nam się wyprodukować dwa duże systemy z wykorzystaniem tej technologii. Ona świetnie sprawdza się w działaniach wspomagających, rozbudowie systemów analitycznych, poprawie interakcji między hurtownią danych i użytkownikiem końcowym. Przyznaję, że na początku byłem pełen obaw jak ta technologia zadziała, ale każdy kolejny zrealizowany projekt zwiększa mój entuzjazm.
Stopniowo budowałem zespół z kompetencjami w obszarze low-code, który obecnie prowadzi kilka projektów. Część osób pozyskaliśmy z rynku, a część udało nam się samodzielnie wykształcić od etapu stażysty, po samodzielnego developera. Dzięki tej technologii jesteśmy w stanie wytwarzać oprogramowanie nawet trzy, cztery razy szybciej. W tradycyjnym podejściu, np. z wykorzystaniem najpopularniejszej obecnie technologii Java, bardzo dużo czasu poświęca się na aspekty, które nie są bezpośrednio związane z realizacją wymagań biznesowych, a są kluczowe z punktu widzenia architektury rozwiązania. W przypadku platform low-code dostajemy gotowe do użycia środowisko, które wymaga jedynie dostosowania do konkretnego przypadku.
Data Enablement Tribe Lead, T-Mobile Polska
Przyszła Pani do T-Mobile ponad trzy lata temu. Co trzeba wiedzieć, co trzeba umieć, jakie mieć kompetencje i drogę zawodową, żeby zajmować się analityką danych?
Dołączyłam do T-Mobile jako Data Enablement Tribe Lead w styczniu 2020 roku. W tej pracy kluczowe jest połączenie wiedzy IT z wiedzą biznesową. Z jednej strony niezbędna jest świadomość tego, w jaki sposób, za pomocą jakich technologii i narzędzi osiągnąć dojrzałość organizacji data-driven. Z drugiej strony, sama wiedza IT bez umiejętności nawiązywania relacji z biznesem, zrozumienia ich potrzeb nie wystarczy. Można powiedzieć, że jest to połączenie dwóch światów – świata inżynierskiego i biznesowego.
Co Pani robiła wcześniej?
Zaczęłam karierę w Onecie – byłam wówczas odpowiedzialna za rozwój startupów e-commerce. Kolejnym krokiem była praca w Silvermedia należącej do Grupy Adamed, gdzie odpowiadałam za digitalizację portfolio produktów OTC (leków wydawanych bez recepty). Moim celem było wykorzystanie danych do lepszego zrozumienia potrzeb klientów i spersonalizowanej komunikacji z nimi. Uważam, że konkretna branża nie ma znaczenia: niezależnie czy to jest e-commerce, czy to jest farmacja, czy telekomunikacja – potrzeba budowania kultury opartej na danych jest wspólna dla wielu sektorów.
Czy doświadczenie w branży IT jest dla analityka danych niezbędne, czy przeszkadza?
Background inżynierski czasem może być niewystarczający, dlatego że kieruje działania na zagadnienia głównie techniczne, bez zadawania sobie pytań, po co my to robimy, jakie problemy biznesowe to rozwiązuje, jaką wartość przyniesie. Z drugiej strony, bez ogólnej wiedzy technicznej, znajomości różnych technologii, świadomości ich możliwości, wad i zalet, przeprowadzenie takiej transformacji nie byłoby możliwe.
Co to znaczy, że organizacja jest data-driven? Jakie czynniki o tym decydują i czy jest to proces, który można uznać za zakończony?
Dojrzałość data-driven ma kilka filarów. Niezbędnym elementem jest kultura oparta o dane i rozwój kompetencji w zakresie korzystania z danych (data literacy). Kolejnym aspektem jest demokratyzacja danych, co oznacza, że dane są szeroko dostępne i nie jest to tajemna wiedza, do uzyskania której niezbędni są inżynierowie danych. Im bliżej biznesu są dane, tym lepiej, bo to biznes najlepiej rozumie swój obszar. Do tego są potrzebne technologie umożliwiające dostęp do danych. My w T-Mobile budowaliśmy transformację w tym kierunku, aby jak najwięcej decyzji, było podejmowanych w oparciu o dane, bez konieczności angażowania inżynierów danych. Chcieliśmy, aby użytkownicy mogli na podstawie danych weryfikować hipotezy biznesowe. I tu dochodzimy do fundamentu, na którym taka transformacja powinna być zbudowana. Tu niezbędne okazało się stworzenie spójnych pojęć biznesowych, wskazanie jednego źródła prawdy dla wskaźników KPI oraz wdrożenie programu podnoszenia jakości danych.
Konieczne jest również zrozumienie, że to cała organizacja odpowiada za dane. Uważam, że ta odpowiedzialność nie może pozostawać zamknięta w działach IT. W praktyce w wielu organizacjach jest inaczej – dane są postrzegane jako problem, który ma zostać rozwiązany przez IT. My chcemy włączać użytkowników biznesowych do tego procesu, aby poczuli, że to oni są również odpowiedzialni za dane, które pomagają im w pracy. Zaangażowanie biznesu zwiększa szanse powodzenia programu podnoszenia jakości danych.
Jak to wygląda w praktyce?
Tu mogę dać przykład z mojego doświadczenia w T-Mobile. W firmie zidentyfikowano konieczność podniesienia jakości danych i zbudowania jednego źródła prawdy. Zaczęłam od rozmów w osobami z biznesu o ich potrzebach. I choć wszyscy rozumieli, że program data governance jest długofalowy i musi potrwać, to musieliśmy w krótkim czasie wykazać jego przydatność. Dlatego wybraliśmy i zaadresowaliśmy kluczowe bolączki biznesu – rozbieżności pomiędzy raportami, które wynikały często z różnego rozumienie tych samych pojęć i tym samym wyliczania ich w inny sposób. Skoncentrowaliśmy się też na wybranych departamentach. Takie podejście dało efekt kuli śniegowej. Zadowolony przedstawiciel biznesu dzielił się tym, co uzyskał dzięki poprawie jakości danych i w efekcie mamy teraz do czynienia z sytuacją, w której to zespoły same zgłaszają się do nas prosząc, żebyśmy wdrożyli dla nich rozwiązania poprawiające jakość danych.
Samo zarządzanie jakością danych to jednak niekończący się proces. Oczywiście możemy osiągnąć pewien etap dojrzałości, ale jeżeli przestaniemy w ten obszar inwestować, to nastąpi pogorszenie jakości danych. Pamiętajmy, że organizacja cały czas się zmienia, zmieniają się produkty i pojęcia, a kultura, która nie jest podtrzymywana, zamiera.
W każdej zmianie, a w transformacji cyfrowej w szczególności, najtrudniejsze jest przekonanie ludzi. Czy w przypadku T-Mobile też tak było?
Najtrudniejsza jest zmiana przyzwyczajeń kształtowanych przez dziesiątki lat – i my jesteśmy w trakcie tego procesu. Z mojego doświadczenia wynika, że najlepiej zacząć od tych, którzy otwarcie mówią o swoich problemach. Departamenty dotknięte kłopotami z jakością danych później stają się największymi orędownikami zmiany.
Mam też sygnały, że znaczenie naszej pracy rośnie. Odwiedzalność Katalogu Danych rośnie. W drugim kwartale liczba użytkowników przekroczyła już 200 osób – to dowód na to, że znacząca część osób w firmie, nie tylko nasz zespół, korzysta z tego kompendium wiedzy o danych. Coraz więcej mamy również produktów danych opartych na jednym źródle prawdy, z których korzysta wiele departamentów w ramach firmy.
Wchodzimy w okres wzmożonej aktywności regulatorów w obszarze przechowywania i analityki danych oraz sztucznej inteligencji. To szansa na unormowanie pewnych spraw, czy raczej zagrożenie?
Świadomość regulacji jest istotna podczas rozmów z biznesem w kluczowym obszarze, czyli jak korzystać z danych zgodnie z prawem. Regulacje są potrzebne zwłaszcza w kontekście AI i zapewnienia etycznego wykorzystania sztucznej inteligencji – moim zdaniem pojawiają się one nawet zbyt późno.
Oczywiście, regulacje czasem spowalniają działanie w zakresie innowacji, ale są potrzebne, aby zachować równowagę i prywatność właścicieli danych. Użytkownicy i klienci T-Mobile zawsze mogą mieć pewność, że ich dane są bezpieczne oraz że są wykorzystywane z obowiązującymi regulacjami prawnymi. To dla nas priorytet.
Zarządza Pani licznym, bo 40-osobowym zespołem. Czy kierowanie osobami o eksperckiej wiedzy jest trudne? Jak radzi sobie Pani z niedoborem specjalistów na tym rynku i presją kosztową?
Zespół był nawet większy, ale przeorganizowaliśmy się i zoptymalizowaliśmy, aby dostarczać maksymalną wartość biznesową. Potwierdzam jednak, że sytuacja na rynku specjalistów w tej dziedzinie jest trudna. Uważam, że kluczem jest zapewnienie pracownikom możliwości rozwoju. Branża telekomunikacyjna ma tu łatwiej niż inne – wyzwań jest mnóstwo, bo trudno znaleźć obszar o porównywalnej skali danych.
Kolejnym wyzwaniem jest zatrzymanie talentów. Trzeba ludzi przekonać do swojej wizji i dać im samodzielność. To znaczy: ja przedstawiam kierunek i cele biznesowe, dając niezależność moim zespołom w sposobie dochodzenia do tych celów. Trzeba być też empatycznym liderem, dawać informację zwrotną – zarówno pozytywną, jak i negatywną. Moją rolą jest również usuwanie przeszkód w organizacji, aby zespół mógł skupić się na realizowanych zadaniach.
cdoforum.pl
Evention sp. z o.o
Rondo ONZ 1
Warszawa, Polska
www.evention.pl
Weronika Warpas
m. +48 570 611 811
e: weronika.warpas@evention.pl
© 2024 | Evention | Polityka cookies | Polityka prywatności | Regulamin