Relacje z wydarzeń
16 grudnia 2024 11:51
II KER – ST5: Cyfryzacja energetyki rozproszonej. Część II.


Nagranie i zdjęcia z sesji    Relacje z pozostałych sesji
 

Zapraszamy do zapoznania się z relacją z drugiej części sesji tematycznej ST5: Cyfryzacja energetyki rozproszonej. 

Druga część sesji tematycznej ST5 była poświęcona prezentacji rozmaitych perspektyw wykorzystania sztucznej inteligencji, cyfryzacji i technologii innowacyjnych w zarządzaniu oraz transformacji sektora energetycznego. Paneliści omawiali między innymi problemy otoczenia regulacyjnego dla procesów digitalizacji energetyki oraz rozwiązania technologiczne, które mogą zoptymalizować pracę systemów rozproszonych. Całej sesji przewodził Krzysztof Heller z AGH w Krakowie, zaś w drugiej części obrad udział wzięli: Ireneusz Wochlik – współzałożyciel i CEO Airgorithmics, Piotr Błach – kierownik zespołu ds. rynku OZE z Transition Technologies, Paweł Pisarczyk – prezes Atende Industries, Grzegorz Świętoń oraz Arkadiusz Burek z firmy Hitachi Energy, a także Jarosław Tworóg – wiceprezes Krajowej Izby Gospodarczej Elektroniki i Telekomunikacji. 

Jako pierwszy wystąpił Ireneusz Wochlik, który podkreślił znaczącą rolę transmisji i przetwarzania danych oraz sztucznej inteligencji w zarządzaniu rozproszonymi systemami energetycznymi. Przypomniał również o trwającym już wdrażaniu unijnej regulacji AI Act, która określa standardy bezpieczeństwa dla systemów o podwyższonym ryzyku, w tym systemów sterujących infrastrukturą energetyczną. Prelegent zaznaczył, iż wraz z cyfryzacją wzrasta ryzyko cyberataków. Aby im zapobiegać, branża musi szybko kształcić kadry w kierunku kompetencji technologicznych.  

Ta technologia zaczyna rosnąć wykładniczo […]. Jeżeli nie zaczniemy z nią współpracować, to niestety za chwilę możemy nie dogonić jej postępu. O tym się głośno nie mówi. Wszyscy jesteśmy przyzwyczajeni, że mamy czas. Niestety, nie mamy. Musimy przede wszystkim budować kompetencje. Nie załatwimy wszystkich problemów kupowaniem technologii dostępnych na rynku. Co nam da kupowanie czegoś, czego nie rozumiemy? Te kompetencje muszą być budowane w organizacjach” – zaznaczył Wochlik

Wochlik poświęcił szczególną uwagę roli danych, ocenie ich ilości i jakości, zakresowi zbieranych informacji oraz podstawowym zasadom zarządzania danymi i ich wykorzystywania. Prelegent zaprezentował wyniki badań zespołu, którym kieruje. Oceniono w nich dojrzałość cyfrową polskich spółek energetycznych, uwzględniając między innymi wykorzystanie sztucznej inteligencji. Pod koniec wystąpienia ponownie podkreślił, że transformacja energetyczna wymaga długofalowych działań i niemożliwe jest nadrobienie w krótkim czasie opóźnień technologicznych. 

Piotr Błach omówił działanie systemów, którymi ma posługiwać się operator sieci przesyłowej w ramach rynku bilansującego. Dzięki niemu operatorzy mogą swobodniej kupować energię w czasie rzeczywistym na wypadek deficytów w sieci. Aby zapewnić sprawną transmisję danych, operatorzy korzystają z systemów SOWE, WIRE i LFC. Bez tych systemów OSP nie byliby w stanie sprawnie komunikować się np. z elektrowniami na wypadek ustalenia zdolności produkcyjnych i zagwarantowania przesyłu energii elektrycznej. Prelegent zwrócił także uwagę na portal klienta (takim klientem jest np. wytwórca energii elektrycznej zdolny do szybkiej reakcji na deficyt w sieci, jednostka agregatu OZE albo magazyn energii), który służy komunikacji z dostawcami usług bilansujących.  

Paweł Pisarczyk podkreślił potencjał społeczności energetycznych oraz ich wkład w decentralizację systemu. Na przykładzie spółdzielni energetycznej Stawiski przedstawił wyniki wdrożenia systemu BeSmart Energy działającego jako asystent energetyczny, który umożliwia zarządzanie nadwyżkami energii. Dzięki zastosowaniu lokalnych źródeł energii i zaawansowanych liczników, które umożliwiły szybką analizę danych w czasie rzeczywistym, wzrosła efektywność energetyczna całej lokalnej sieci. Prelegent w prezentacji zwrócił uwagę na znaczenie decentralizacji i na fakt, że wykorzystanie nadwyżek energii do produkcji wodoru umożliwia wspieranie lokalnych społeczności energetycznych. Dodatkowo podkreślił potrzebę rozwijania tanich efektywnych systemów zarządzania energią oraz konieczność poprawy kontroli urządzeń pomiarowych w zakresie cyberbezpieczeństwa i weryfikacji ich pochodzenia. 

Cała recepta na przyszłą energetykę sprowadza się do zasady 3D: decentralizacja, dekarbonizacja i digitalizacja. Żaden z  tych elementów nie może istnieć bez pozostałych. Nie chodzi tylko o to, że będziemy budować mikrosieci. Powinniśmy budować społeczności, bo ideą decentralizacji jest to, żeby energia produkowana lokalnie była również lokalnie konsumowana i żeby nie destabilizowała systemu energetycznego – dodał Pisarczyk

Grzegorz Świętoń odniósł się do omawianych już kwestii takich jak znaczenie danych telemetrycznych i danych czasu rzeczywistego, rola sztucznej inteligencji w optymalizacji zarządzania energią, zwłaszcza w kontekście rozproszonych zasobów energetycznych, a także do reformy rynku bilansującego w Polsce z 14 czerwca 2024 r., która sprzyja integracji OZE i zmniejsza nierynkowe wyłączenia. Prelegent zaprezentował symulację, w której magazyn o pojemności 2 MWh może dodatkowo generować do miliona złotych rocznych przychodów. Opisany także został system optymalizacyjny wykorzystujący dane telemetryczne, rynkowe i prognozy pogody, które są przetwarzane przez modele uczenia maszynowego w celu generowania prognoz i ofert rynkowych.  

Arkadiusz Burek przedstawił z kolei technologię Digital Twin jako narzędzie wiernie odwzorowujące procesy i stan infrastruktury energetycznej. W trakcie wystąpienia wyróżnił trzy główne obszary zastosowania „cyfrowego bliźniaka”. Pierwszym jest zarządzanie zasobami fizycznymi, które pozwala na przewidywanie napraw i monitorowanie stanu infrastruktury technicznej. Drugim są systemy operacyjne, w których technologia wspiera efektywne zarządzanie danymi. Trzecim obszarem jest Digital Twin od zachowania klientów – umożliwia on personalizację ofert oraz prognozowanie zapotrzebowania na energię. Prelegent podkreślił, że technologia ta zapewnia wysoką dostępność infrastruktury energetycznej, eliminuje silosowość oraz wspiera podejmowanie decyzji operacyjnych. 

Sesja tematyczna zakończyła się dyskusją, w której udział wzięli wszyscy prelegenci. Jarosław Tworóg zaznaczył, że przetwarzanie danych powinno odbywać się już na poziomie lokalnym, a do operatorów należy przesyłać tylko kluczowe fragmenty informacji, co umożliwi skrócenie czasu reakcji oraz zmniejszy dodatkowe koszty. 

Przechodzenie z dzisiejszego stanu do stanu docelowego, w którym większość energii będzie zarządzana efektywnie na dole systemu, jest szczególnym procesem. Dzisiaj już wiemy, że wiele rozwiązań przyszłości, np. wymienionych przez przedstawiciela firmy Transition Technologies Systems, jest potrzebnych i będzie funkcjonowało bardzo długo. Pokazaliśmy rozwiązania dotyczące roku 2040 czy 2050, których wprowadzenie jest nieuchronne. Pojawia się ważne pytanie o przyczyny tej nieuchronności. Przede wszystkim ilość danych będzie bardzo duża, a dopuszczalne przesunięcie czasowe – małe. […] Mamy zbudować na terenie Polski 1000 data-center do przetwarzania lokalnego, w których opóźnienia między źródłem a odbiorcą efektów przetworzenia danych musi wynieść poniżej 3–4 milisekund” – postulował Tworóg

W ramach podsumowania Ireneusz Wochlik oraz Arkadiusz Burek zaapelowali o oddolne działania bez oczekiwania na regulację. Podali przykład Digital Twin – w tym przypadku brak regulacji nie przeszkodził w tworzeniu praktycznych rozwiązań. Piotr Błach zwrócił uwagę na problem rosnącej liczby danych wymaganych przez operatorów, a Grzegorz Świętoń zasugerował śledzenie zagranicznych praktyk i adaptację gotowych rozwiązań w celu przyśpieszenia wdrażania technologii. Paweł Pisarczyk pozwolił sobie natomiast na krytykę obecnych programów dotacyjnych, które nie są dostosowane do potrzeb rozwijania energetyki rozproszonej. 

Link do wydarzenia: "II Kongres Energetyki Rozproszonej [28-30.10.2024]"