Sebastian Kondracki (Bielik.AI): Największy błąd firm? Wdrażają AI, zanim wiedzą po co
O suwerenności technologicznej, zastosowaniach sztucznej inteligencji w energetyce, porządkowaniu danych, kosztach wdrożeń i przewagach modeli lokalnych rozmawiamy z Sebastianem Kondrackim, współtwórcą Bielik AI.
Sebastian Kondracki jest jednym z prelegentów konferencji „Transformacja Energetyczna – Nowe technologie i wyzwania biznesu”. Weź udział: Konferencja – Transformacja Energetyczna – Nowe technologie i wyzwania biznesu

Bielik to projekt, który wzbudza bardzo duże zainteresowanie. Co było impulsem do jego stworzenia?
Wydaje mi się, że impulsem do stworzenia Bielika było dokładnie to samo, co dziś stanowi jedno z największych wyzwań także w energetyce. Jesteśmy grupą osób, które pracują w biznesie, w dodatku często w biznesie regulowanym. Ja sam realizuję wiele wdrożeń w sektorze finansowym. I kiedy pojawiła się rewolucja związana z dużymi modelami językowymi, od razu zauważyliśmy ich ogromny potencjał. Problem był jednak bardzo konkretny: żeby z nich korzystać, trzeba było przesyłać dane za ocean.
To rodziło pytania o prywatność, bezpieczeństwo i zgodność z regulacjami. W sektorach regulowanych bardzo często operuje się na danych wrażliwych: od danych osobowych po tajemnice przedsiębiorstwa, dokumentację techniczną, architektury systemów czy specyfikacje urządzeń. Nagle okazywało się, że nawet w prostym procesie, takim jak tłumaczenie dokumentacji technicznej, trzeba sobie zadać pytanie: czy naprawdę możemy wysłać sto stron takiego dokumentu do zewnętrznego modelu?
Stąd pojawiła się potrzeba stworzenia rozwiązania suwerennego, które organizacja może uruchomić na własnej infrastrukturze. Drugim impulsem były koszty. Świetnie korzysta się z narzędzi pokroju ChatGPT w codziennej pracy — do korekty tekstu, tłumaczenia, krótkich analiz. Ale w biznesie nie rozmawia z AI jedna osoba. Tam systemy komunikują się z modelami automatycznie, a rozliczenia odbywają się za tokeny. Jeśli do modelu trafiają bardzo duże raporty, logi z maszyn, alerty czy dane pogodowe, koszty zaczynają rosnąć lawinowo. Przy dużej skali robią się z tego setki tysięcy dolarów.
Z jednej strony więc mieliśmy ograniczenia regulacyjne, z drugiej — czystą ekonomię. I wtedy pojawił się pomysł: stwórzmy model, który nie musi być odpowiednikiem globalnych rozwiązań do wszystkiego. Nie musi znać starofrancuskiego ani pełnić jednocześnie funkcji edukacyjnej, rozrywkowej i biznesowej. Wystarczy, że będzie dobry w zastosowaniach biznesowych, będzie można go uruchomić lokalnie i nie będzie generował absurdalnych kosztów.
Był jeszcze jeden ważny element. Pomyśleliśmy: kto za to zapłaci? I wtedy wróciliśmy do idei open source — do projektów tworzonych przez społeczność ludzi z biznesu, którzy po godzinach budują coś wspólnie. Tak przecież powstawał Linux. Uznaliśmy, że można spróbować podobnie. To podejście się sprawdziło, bo dziś wiele osób chce rozwijać swoje kompetencje w AI, ale nie zawsze może eksperymentować swobodnie w swojej organizacji. Otwarta społeczność daje taką przestrzeń: można testować, budować, uczyć się, a dopiero potem wracać z tym doświadczeniem do biznesu.
Dzięki temu udało się stworzyć model suwerenny, rozwijany społecznościowo, który można instalować lokalnie i który nie ogranicza się wyłącznie do języka polskiego.
Czym Bielik różni się od globalnych modeli w kontekście zastosowań biznesowych?
To bardzo ważne pytanie, bo często — zwłaszcza z dziennikarskiego czy bardziej ogólnego punktu widzenia — Bielik bywa nazywany „polskim ChatGPT”. Z jednej strony to miłe porównanie, ale z drugiej ono trochę zaciemnia obraz. My nie jesteśmy odpowiednikiem ChatGPT. To po prostu inna klasa modeli.
Ja często tłumaczę to tak: jeśli ChatGPT jest jak metro albo pociąg — ogromna infrastruktura, która przewozi tysiące pasażerów dziennie, działa sprawnie, komfortowo i jest relatywnie tania dla pojedynczego użytkownika — to Bielik jest bardziej jak specjalistyczna furgonetka, koparka albo ciągnik. Taki pojazd nie służy do wszystkiego, ale w konkretnym zastosowaniu bywa znacznie bardziej użyteczny.
Globalne modele są znakomite, ale nie mamy wglądu w ich „silnik”. Nie możemy ich dowolnie dopasować do własnego procesu. W przypadku Bielika jest inaczej: można go pobrać, dostroić, rozbudować, wyspecjalizować. I to jest kluczowe z punktu widzenia biznesu, bo właśnie w tym miejscu buduje się przewaga konkurencyjna.
Wyobraź sobie redakcję, w której wszyscy używają tego samego globalnego narzędzia. W pewnym momencie wszystkie teksty zaczynają być podobne. A jeśli model popełnia błąd, ten błąd będzie powtarzany przez wszystkich. Tymczasem model otwarty można dostroić do własnego stylu, własnych procesów, własnej wiedzy. W energetyce wygląda to podobnie: jeśli firma ma specyficzne procesy, nietypowe maszyny, własne procedury czy unikalny know-how, to model lokalny można dopasować właśnie do tego środowiska.
Druga różnica dotyczy infrastruktury. Bielik jest modelem kompaktowym, lekkim, energooszczędnym. Istnieją otwarte modele o setkach miliardów parametrów, ale one wymagają ogromnych zasobów. To trochę jak różnica między amerykańskim samochodem z wielkim silnikiem a kompaktowym autem, które po prostu taniej i rozsądniej eksploatować na co dzień. W wielu zastosowaniach biznesowych taki model kompaktowy jest po prostu bardziej praktyczny.
Najważniejsze są więc trzy rzeczy: można go uruchomić lokalnie, można go dostroić do swoich potrzeb i można to zrobić przy znacznie niższych kosztach.
Przejdźmy do energetyki. Jeszcze niedawno AI w tym sektorze wydawała się raczej ciekawostką, dziś coraz mocniej wnika w systemy energetyczne i zaczyna odgrywać ważną rolę. Co się zmieniło?
Zmieniła się przede wszystkim świadomość i poziom kompetencji. Rewolucja generatywnej AI — za sprawą ChatGPT, generatorów obrazów, transkrypcji mowy i wielu innych narzędzi — sprawiła, że wszyscy zaczęliśmy się tym interesować. Na początku wiele osób widziało w tym przede wszystkim narzędzie do treści marketingowych czy prostych tekstów. Ale kiedy firmy zaczęły z tego korzystać głębiej, okazało się, że potencjał jest dużo większy.
Modele językowe świetnie sprawdzają się nie tylko w generowaniu, ale także w analizie dokumentów, porządkowaniu danych, ich strukturyzowaniu czy przygotowywaniu zbiorów do dalszego wykorzystania. To z kolei odblokowało rozwój innych modeli AI, które znamy od lat, ale których często nie dało się wdrożyć skutecznie z powodu braku uporządkowanych danych.
W praktyce wygląda to tak, że wcześniej można było zaproponować firmie model klasyfikujący maile albo wykrywający nieprawidłowości, ale problemem było ręczne przygotowanie ogromnych zbiorów danych treningowych. Dziś generatywna AI może pomóc ten etap przyspieszyć. I właśnie wtedy wiele organizacji — także w energetyce — zaczęło dostrzegać, że AI nie służy tylko do tworzenia „ładnych rzeczy”, ale może realnie usprawniać procesy operacyjne.
Jest jeszcze jeden bardzo ważny aspekt: strategia AI nie może istnieć bez strategii danych. Jeśli na wejściu mamy chaos, to na wyjściu dostaniemy chaos. I dlatego wiele firm zaczęło najpierw porządkować dane, a dopiero potem myśleć o kolejnych krokach.
Czy to rosnące uzależnienie od AI jest bezpieczne? Czy nie grozi nam sytuacja, w której przestaniemy sobie wyobrażać pracę bez tych narzędzi?
Na pewno AI zmieni nasz sposób pracy. Ale podobnie było z GPS-em. Kiedyś, jadąc do obcego miasta, kupowało się plan miasta i próbowało odnaleźć drogę samodzielnie. Po kilku wizytach człowiek znał już topografię. Dziś jedziemy z nawigacją wszędzie — i pewnie rzeczywiście jesteśmy przez to trochę mniej samodzielni w terenie. Z drugiej strony oszczędzamy mnóstwo czasu, stresu i energii.
Z AI jest podobnie. Część czynności oddamy narzędziom i prawdopodobnie w pewnych obszarach staniemy się mniej „ręcznie sprawni”. Ale w zamian możemy lepiej wykorzystać czas i kompetencje tam, gdzie naprawdę mają znaczenie.
Ja zresztą nie przepadam za określeniem „sztuczna inteligencja”. W biznesie wolę mówić o inteligencji kolaboratywnej — czyli o takim modelu pracy, w którym naturalna inteligencja człowieka dostaje „supermoce” dzięki technologii. To jest dla mnie właściwy kierunek: nie zastępować ludzi, tylko ich wzmacniać.
Widać już zresztą różnicę między tymi podejściami. Tam, gdzie firmy próbowały zastąpić ludzi AI, efekty często były fatalne. Ale tam, gdzie AI stała się wsparciem dla ludzi pojawia się realny wzrost wartości biznesowej.
Gdzie AI może dziś dać największą wartość sektorowi energetycznemu i szerzej — przemysłowi?
(…) W przemyśle i energetyce szczególnie duży potencjał widzę w utrzymaniu ciągłości działania (…)
Dziś widzę trzy najważniejsze obszary. Po pierwsze: poprawa jakości danych. Po drugie: mierzenie i analiza różnych wskaźników. Po trzecie: zarządzanie wiedzą.
To są inwestycje, które praktycznie nigdy nie są stracone. Dobrze uporządkowane dane i dobrze zorganizowana wiedza zawsze będą procentować. Dlatego jestem raczej sceptyczny wobec pomysłów, by zaczynać transformację AI od chatbotów dla klientów końcowych. To często jest najgorszy możliwy punkt startu.
Modele nadal bywają nieprzewidywalne. Jeśli klient napisze do bota, że aplikacja nie działa, a system odpowie mu w sposób nieracjonalny albo wręcz zasugeruje zmianę dostawcy — to mamy problem. Dlatego znacznie rozsądniej jest zaczynać od zastosowań wewnętrznych: dla pracowników, analityków, działów utrzymania ruchu czy obsługi procesów operacyjnych.
W przemyśle i energetyce szczególnie duży potencjał widzę w utrzymaniu ciągłości działania: analizie logów, sygnałów, alertów, predykcji awarii. Ale znów — żeby dobrze przewidywać awarie, trzeba najpierw dobrze uporządkować dane.
Drugim ciekawym obszarem są systemy wsparcia wiedzy dla pracowników. W środowisku przemysłowym interfejsy urządzeń bywają niewygodne, dokumentacja jest rozproszona, a dostęp do instrukcji utrudniony. Jeśli operator może zapytać system prostym językiem, co oznacza konkretny sygnał lub co zrobić w danej sytuacji, to wartość takiego rozwiązania jest bardzo duża.
Skoro mówimy o danych: w energetyce i przemyśle często panuje w nich chaos. Jak porządkować je za pomocą AI? Czy są tu jakieś konkretne case studies albo praktyczne ścieżki działania?
Tu odpowiedź niestety brzmi: to zależy. Wszystko zależy od rodzaju danych. Inaczej pracuje się z raportami pisanymi językiem naturalnym, a inaczej z logami maszyn, alertami czy obrazem z kamer przemysłowych.
W przypadku dokumentów i raportów często mówimy o takich zadaniach jak streszczanie, podsumowywanie, klasyfikacja czy wydobywanie najważniejszych informacji. W przypadku danych technicznych czy przemysłowych bardzo często chodzi o ich odpowiednią strukturyzację, tak by można było budować grafy wiedzy, modele predykcyjne czy systemy wnioskujące.
Bardzo ciekawe jest dziś podejście agentowe. Zamiast jednego wielkiego modelu do wszystkiego, można zbudować system, w którym jeden model planuje pracę, a następnie uruchamia wyspecjalizowane narzędzia lub agentów w zależności od rodzaju zadania. Jeśli pojawia się tekst po angielsku — uruchamia moduł tłumaczeniowy. Jeśli trafia obraz lub fragment nagrania — uruchamia analizę wizualną. Jeśli pojawiają się dane techniczne — kieruje je do odpowiedniego narzędzia analitycznego.
To bardzo obiecujący kierunek, bo pozwala budować elastyczne ekosystemy AI zamiast jednego monolitycznego rozwiązania.
Nie mogę nie zadać pytania, które w energetyce pojawia się coraz częściej. Czy AI, choć rozwiązuje wiele problemów, nie pogłębia jednocześnie innych — zwłaszcza jeśli chodzi o zużycie energii?
To bardzo ważny temat. Rzeczywiście jesteśmy dziś w momencie ogromnego technologicznego przyspieszenia i ten etap eksperymentowania kosztuje energetycznie dużo. Wiele energii zużywamy na uczenie modeli, testowanie ich możliwości, sprawdzanie, do czego się nadają, a do czego nie.
Ale trzeba pamiętać, że zapotrzebowanie energetyczne AI ma dwa etapy. Pierwszy to trenowanie modeli — i tu rzeczywiście zużycie energii bywa ogromne. Drugi etap to ich codzienna eksploatacja, czyli działanie już gotowego modelu. I ten etap zwykle jest znacznie mniej kosztowny.
W dłuższej perspektywie rachunek będzie zależał od wartości, jaką AI wytworzy. Jeśli dzięki niej uda się odkrywać nowe leki, zoptymalizować przemysł, zmniejszyć liczbę awarii czy poprawić efektywność energetyczną, to część tego bilansu zacznie się wyrównywać.
Dodatkowo wiele codziennych zastosowań będzie przechodzić do mniejszych, energooszczędnych modeli. I to jest bardzo ważny trend. Nie każde zadanie wymaga ogromnego modelu. W wielu przypadkach wystarczy rozwiązanie kompaktowe, które działa taniej, szybciej i lokalnie.
Oczywiście pozostaje też kwestia geopolityki i dostępu do taniej energii. Kto będzie miał ją tańszą, ten będzie bardziej konkurencyjny. To dotyczy nie tylko AI, ale całej gospodarki.
W czasie transformacji energetycznej dużo mówi się o suwerenności — także wobec ekspansji technologii z Chin czy dominacji big techów. Czy jesteśmy skazani na te największe platformy, czy Europa może zbudować własną suwerenność AI?
(…) Warto też dobrze zdefiniować, czym właściwie jest suwerenność technologiczna. Dla mnie nie oznacza ona, że mamy korzystać wyłącznie z tego, co lokalne, a odrzucać wszystko, co zagraniczne (…)
To jest bardzo złożone pytanie, bo mamy tu co najmniej dwa poziomy. Pierwszy to poziom największych, globalnych modeli i gigantycznej infrastruktury. Tu Europa rzeczywiście ma dużo do nadrobienia. Budowa odpowiednio dużych centrów danych, dostęp do mocy obliczeniowej i taniej energii — to są wyzwania ogromnej skali.
Ale jest też drugi poziom: modele kompaktowe, wyspecjalizowane, uruchamiane lokalnie, budowane do konkretnych zastosowań. I właśnie tu widzę realną szansę na europejską i polską suwerenność technologiczną.
Nie musimy kopiować jeden do jednego tego, co robią amerykańscy giganci. Tak samo jak nie musimy budować własnej NASA, żeby osiągać sukcesy w technologiach kosmicznych. Czasem to właśnie specjalizacja daje największą siłę. Możemy tworzyć rozwiązania niszowe, ale kluczowe — i w nich budować przewagę.
Warto też dobrze zdefiniować, czym właściwie jest suwerenność technologiczna. Dla mnie nie oznacza ona, że mamy korzystać wyłącznie z tego, co lokalne, a odrzucać wszystko, co zagraniczne. Raczej chodzi o to, żeby korzystać z technologii na własnych zasadach. Tam, gdzie dane są niewrażliwe, nie ma problemu, by sięgać po globalne narzędzia. Ale tam, gdzie przetwarzamy dokumentację, logi, dane medyczne czy przemysłowe, potrzebujemy rozwiązań, nad którymi mamy pełną kontrolę.
I właśnie w tym kierunku Polska już zaczyna iść. Powstają kolejne modele, rozwijają się kompetencje, rośnie świadomość. To nie będzie kopia Doliny Krzemowej — i dobrze. Powinniśmy robić to po swojemu, sprytnie i strategicznie.
To bardzo przypomina sytuację w sektorze magazynowania energii. W przypadku magazynów energii też nie musimy konkurować z Chinami w produkcji samych baterii, ale możemy budować własne kompetencje na poziomie oprogramowania do zarządzania magazynami.
Dokładnie tak. To bardzo dobra analogia. Suwerenność nie zawsze oznacza pełną samowystarczalność materiałową czy produkcyjną. Czasem oznacza zdolność do kontrolowania kluczowej warstwy technologicznej — właśnie oprogramowania, zarządzania, integracji, inteligencji systemu.
Ale do tego potrzebni są ludzie: dobrzy inżynierowie, badacze, osoby, które chcą rozwijać takie rozwiązania tutaj, a nie wyłącznie wyjeżdżać tam, gdzie infrastruktura i finansowanie są większe. To także element budowania suwerenności.
Z twojego doświadczenia: jakie są dziś największe bariery we wdrażaniu AI w firmach? Technologia, dane, a może kultura organizacyjna?
Myślę, że przede wszystkim kultura organizacyjna. Bardzo duży odsetek projektów AI kończy się niepowodzeniem. Jednym z powodów jest źle dobrany przypadek użycia. Drugim — brak kompetencji. A te dwa elementy są ze sobą ściśle powiązane.
Jeśli firma nie stworzy przestrzeni do eksperymentowania, do szybkiego testowania i uczenia się, to będzie jej bardzo trudno dobrze wdrażać AI. Tu wszystko zmienia się tak szybko, że klasyczne, ciężkie procesy wdrożeniowe często po prostu nie nadążają. Nawet agile bywa za wolny.
Dlatego uważam, że organizacje muszą budować kulturę ciągłej nauki i testowania. Nie chodzi o wdrażanie wszystkiego od razu na produkcji, ale o stworzenie bezpiecznego środowiska eksperymentalnego — warsztatów, hackathonów, piaskownic technologicznych — w których pracownicy mogą dotknąć tych narzędzi i zobaczyć, co faktycznie ma sens.
Drugą barierą jest dostęp do mocy obliczeniowej. Nie tylko tej „produkcyjnej”, ale także tej potrzebnej do testów i eksperymentów. Przydałoby się więcej mechanizmów wspierających organizacje w takim bezpiecznym wejściu w AI — klastrów, grantów, środowisk testowych.
Trzecią barierą są dane. Ale ja traktuję to też jako szansę: pierwsze projekty AI powinny często właśnie służyć uporządkowaniu danych i wdrożeniu strategii danych.
A gdybyś miał doradzić firmom z „ciężkiego” sektora, takiego jak energetyka, jedną decyzję związaną z AI do podjęcia jeszcze w tym roku — co by to było?
Nie odpowiem, że „zostańcie sponsorami Bielika”, chociaż oczywiście byłoby mi bardzo miło (śmiech).
A już całkiem serio: powiedziałbym, żeby nie traktować AI jako modnego gadżetu czy kolejnego „chipa”, który po prostu trzeba mieć, bo mają go inni. Zamiast tego trzeba podejść do niej strategicznie i procesowo.
Najpierw strategia danych, potem strategia AI. Najpierw identyfikacja realnych problemów i mierników, dopiero potem dobór przypadków użycia. Jeśli firma mówi: „chcemy system, który ograniczy odpływ klientów”, to najpierw trzeba zapytać, czy ona w ogóle dokładnie mierzy ten odpływ i rozumie jego przyczyny. Jeśli nie, to od tego trzeba zacząć.
AI jest dziś wszędzie: w mediach, na konferencjach, w prezentacjach zarządów. Ale właśnie dlatego trzeba pamiętać o podstawach. To nadal powinny być dobrze zaprojektowane projekty technologiczne, a nie działania wdrażane tylko dlatego, że konkurencja już coś pokazała.
Czy branża energetyczna i branża AI mogą się dziś czegoś nauczyć od siebie nawzajem?
(…) Czasem lepiej działa podejście bardziej „lean” — szybciej coś zbudować, wystawić na próbę, zebrać informację zwrotną, poprawić (…)
Myślę, że tak. Przede wszystkim energetyka może sporo zaczerpnąć z tej mentalnej zmiany, którą przyniosła AI — z większej gotowości do eksperymentowania, szybszego uczenia się, testowania i poprawiania rozwiązań w ruchu.
Branże takie jak energetyka czy bankowość są z natury bardzo poważne, bardzo odpowiedzialne i często wdrażają zmiany w sposób bardzo „katedralny”: długo planują, długo projektują, długo analizują. To ma swoje uzasadnienie, ale w świecie AI tempo zmian jest dziś tak duże, że taki model nie zawsze się sprawdza.
Czasem lepiej działa podejście bardziej „lean” — szybciej coś zbudować, wystawić na próbę, zebrać informację zwrotną, poprawić. To nie oznacza obniżenia jakości ani bezpieczeństwa. Przeciwnie: open source, open science czy otwarte społeczności potrafią budować rozwiązania niezwykle stabilne i bezpieczne. Linux jest tu świetnym przykładem — korzysta z niego infrastruktura krytyczna na całym świecie.
Z drugiej strony branża AI też może się uczyć od energetyki i innych sektorów krytycznych odpowiedzialności, rygoru i myślenia o skutkach wdrożeń. Bo dziś widać już, że AI zaczyna się zamykać, staje się strategiczna, coraz mniej wiemy o tym, co dzieje się „pod maską” największych modeli. To oznacza, że tym bardziej potrzebujemy rozsądku, inżynierskiej dyscypliny i dobrych standardów wdrożeń.