Kto kontroluje otwarte modele AI?
Katgoria: IT Solutions / Utworzono: 07 marzec 2025
Rozwój sztucznej inteligencji zmienia sposób, w jaki firmy i społeczeństwa korzystają z innowacyjnych rozwiązań, ale rodzi też pytania o to, kto i na jakich zasadach nadzoruje jej postęp. O przyszłości tej technologii zadecydują nie tylko algorytmy, ale także dążenie do demokratyzacji dostępu i tworzenia bardziej inkluzywnych, otwartych innowacji. Tempo zmian jest błyskawiczne, ale jedno pozostaje niezmienne – otwarte podejście do AI to klucz do jej odpowiedzialnego i zrównoważonego rozwoju.
Inkluzywność, dostępność i współpraca społeczności programistów od dekad umożliwiają tworzenie otwartego oraz bezpiecznego oprogramowania, które stanowi motor napędowy dla innowacyjności i fundament globalnej infrastruktury IT. W Red Hat uważamy, że wykorzystanie tych samych zasad w rozwoju AI może uczynić ją bardziej odpowiedzialną i mniej podatną na uprzedzenia (z ang. bias). Choć sztucznej inteligencji nie należy traktować tak samo jak oprogramowanie open source, istnieje wiele analogii między strukturą dużych modeli językowych a otwartym oprogramowaniem. Mimo że są to osobne dziedziny, wspólnym mianownikiem jest z pewnością otwarte podejście i możliwości współtworzenia przez społeczność open source.
Dostrajanie sztucznej inteligencji
W przeciwieństwie do tradycyjnych aplikacji IT, które budowane są na podstawie kodu źródłowego, modele AI bazują na tzw. wagach, czyli zestawach liczb decydujących o tym, jak system analizuje dane i generuje odpowiedzi. Wagi powstają w wyniku długiego procesu trenowania modelu na ogromnych zbiorach informacji. Niekiedy dane treningowe przyrównywane są do kodu źródłowego modelu AI, jednak stanowi to pewnego rodzaju uproszczenie.
W świecie open source kod źródłowy jest podstawowym środkiem do poznania oprogramowania i wprowadzania w nim zmian. W przypadku sztucznej inteligencji same dane treningowe nie wystarczą, aby zrozumieć w jaki sposób działa konkretny algorytm. Proces ich przetwarzania i trenowania jest tak złożony, że pojedyncza próbka danych ma tylko pośredni wpływ na efekt końcowy, co utrudnia pełną kontrolę nad modelem. Większość ulepszeń modeli AI nie wymaga zresztą dostępu do oryginalnych danych treningowych. Zamiast tego zmiany dokonywane są na podstawie modyfikacji wag modelu lub w procesie „dostrajania” (fine-tuning), który pozwala na precyzyjne dopasowanie AI do konkretnych zastosowań.
Warto zauważyć, że etap dostosowywania modeli AI do wymagań biznesowych może być kosztowny, ale nie musi. Zastosowanie technologii vLLM pozwala optymalizować wykorzystanie zasobów obliczeniowych, efektywniej zarządzać pamięcią i przetwarzać większą liczbę zapytań jednocześnie. Dzięki temu proces dostrajania modeli jest szybszy i tańszy, a firmy mogą skuteczniej wdrażać i skalować AI, nawet przy ograniczonych zasobach infrastrukturalnych.
AI otwarte, czyli jakie?
Aby można było mówić o otwartej sztucznej inteligencji, modele AI muszą spełniać dwa podstawowe warunki. Po pierwsze, ich wagi powinny być dostępne w ramach licencji open source, zapewniającej te same prawa i zasady działania, jakie obowiązują w przypadku klasycznego oprogramowania open source. Po drugie, zaimplementowane w kodzie mechanizmy ich działania muszą bazować na otwartych technologiach. Istotnym elementem jest również dążenie do zwiększania przejrzystości procesu trenowania i dostrajania sztucznej inteligencji, a także zacieśnianie współpracy społeczności IT z instytucjami regulującymi prawo oraz przedsiębiorcami.
Jednym z wyzwań dotyczących rozwijania systemów AI jest to, że w ich ulepszaniu często bierze udział tylko wąska grupa specjalistów zajmujących się danymi. Tymczasem eksperci z różnych branż – od medycyny po prawo – mogą wnosić cenną wiedzę do procesów trenowania modeli. Dlatego tak ważne jest, aby sztuczna inteligencja była dostępna i otwarta dla jak najszerszego grona społeczności, instytucji i firm, a nie tylko wąskiego grona podmiotów technologicznych.
Przykładem takiego podejścia jest stworzony przez Red Hat i IBM projekt InstructLab. To narzędzie pozwalające osobom spoza świata data science na aktywne współtworzenie modeli AI poprzez dostarczanie swojej specjalistycznej wiedzy. Dzięki temu przedstawiciele różnych branż i biznesu mogą wpływać na rozwój sztucznej inteligencji, sprawiając, że lepiej odpowiada ona na konkretne wyzwania gospodarcze i naukowe. Ułatwia to transparentny i inkluzywny rozwój AI, a także sprzyja tworzeniu mniejszych, bardziej wyspecjalizowanych modeli do konkretnych zastosowań biznesowych.
Infrastruktura i optymalizacja
Rozwój sztucznej inteligencji open source nie kończy się na samych modelach – równie istotna jest infrastruktura, na której działa AI. Dla tworzenia sztucznej inteligencji w duchu open source kluczowe jest dostarczanie elastycznych narzędzi umożliwiających budowanie, wdrażanie i zarządzanie modelami w różnych środowiskach. Otwarte technologie, takie jak Kubernetes czy KubeFlow, odgrywają tu istotną rolę, zapewniając skalowalność oraz integrację różnych systemów IT. Ważne jest także wykorzystanie chmury hybrydowej, która pozwala na elastyczność w doborze odpowiednich zasobów do konkretnych zastosowań AI. Możliwość optymalizacji wydajności i kosztów sprawia, że firmy mogą lepiej dostosowywać modele do swoich potrzeb, niezależnie od miejsca ich wdrożenia.
Autor: Wojciech Furmankiewicz, dyrektor Red Hat ds. technologii i rozwiązań w regionie Europy Środkowo-Wschodniej
Źródło: Red Hat
Dostrajanie sztucznej inteligencji
W przeciwieństwie do tradycyjnych aplikacji IT, które budowane są na podstawie kodu źródłowego, modele AI bazują na tzw. wagach, czyli zestawach liczb decydujących o tym, jak system analizuje dane i generuje odpowiedzi. Wagi powstają w wyniku długiego procesu trenowania modelu na ogromnych zbiorach informacji. Niekiedy dane treningowe przyrównywane są do kodu źródłowego modelu AI, jednak stanowi to pewnego rodzaju uproszczenie.
W świecie open source kod źródłowy jest podstawowym środkiem do poznania oprogramowania i wprowadzania w nim zmian. W przypadku sztucznej inteligencji same dane treningowe nie wystarczą, aby zrozumieć w jaki sposób działa konkretny algorytm. Proces ich przetwarzania i trenowania jest tak złożony, że pojedyncza próbka danych ma tylko pośredni wpływ na efekt końcowy, co utrudnia pełną kontrolę nad modelem. Większość ulepszeń modeli AI nie wymaga zresztą dostępu do oryginalnych danych treningowych. Zamiast tego zmiany dokonywane są na podstawie modyfikacji wag modelu lub w procesie „dostrajania” (fine-tuning), który pozwala na precyzyjne dopasowanie AI do konkretnych zastosowań.
Warto zauważyć, że etap dostosowywania modeli AI do wymagań biznesowych może być kosztowny, ale nie musi. Zastosowanie technologii vLLM pozwala optymalizować wykorzystanie zasobów obliczeniowych, efektywniej zarządzać pamięcią i przetwarzać większą liczbę zapytań jednocześnie. Dzięki temu proces dostrajania modeli jest szybszy i tańszy, a firmy mogą skuteczniej wdrażać i skalować AI, nawet przy ograniczonych zasobach infrastrukturalnych.
AI otwarte, czyli jakie?
Aby można było mówić o otwartej sztucznej inteligencji, modele AI muszą spełniać dwa podstawowe warunki. Po pierwsze, ich wagi powinny być dostępne w ramach licencji open source, zapewniającej te same prawa i zasady działania, jakie obowiązują w przypadku klasycznego oprogramowania open source. Po drugie, zaimplementowane w kodzie mechanizmy ich działania muszą bazować na otwartych technologiach. Istotnym elementem jest również dążenie do zwiększania przejrzystości procesu trenowania i dostrajania sztucznej inteligencji, a także zacieśnianie współpracy społeczności IT z instytucjami regulującymi prawo oraz przedsiębiorcami.
Jednym z wyzwań dotyczących rozwijania systemów AI jest to, że w ich ulepszaniu często bierze udział tylko wąska grupa specjalistów zajmujących się danymi. Tymczasem eksperci z różnych branż – od medycyny po prawo – mogą wnosić cenną wiedzę do procesów trenowania modeli. Dlatego tak ważne jest, aby sztuczna inteligencja była dostępna i otwarta dla jak najszerszego grona społeczności, instytucji i firm, a nie tylko wąskiego grona podmiotów technologicznych.
Przykładem takiego podejścia jest stworzony przez Red Hat i IBM projekt InstructLab. To narzędzie pozwalające osobom spoza świata data science na aktywne współtworzenie modeli AI poprzez dostarczanie swojej specjalistycznej wiedzy. Dzięki temu przedstawiciele różnych branż i biznesu mogą wpływać na rozwój sztucznej inteligencji, sprawiając, że lepiej odpowiada ona na konkretne wyzwania gospodarcze i naukowe. Ułatwia to transparentny i inkluzywny rozwój AI, a także sprzyja tworzeniu mniejszych, bardziej wyspecjalizowanych modeli do konkretnych zastosowań biznesowych.
Infrastruktura i optymalizacja
Rozwój sztucznej inteligencji open source nie kończy się na samych modelach – równie istotna jest infrastruktura, na której działa AI. Dla tworzenia sztucznej inteligencji w duchu open source kluczowe jest dostarczanie elastycznych narzędzi umożliwiających budowanie, wdrażanie i zarządzanie modelami w różnych środowiskach. Otwarte technologie, takie jak Kubernetes czy KubeFlow, odgrywają tu istotną rolę, zapewniając skalowalność oraz integrację różnych systemów IT. Ważne jest także wykorzystanie chmury hybrydowej, która pozwala na elastyczność w doborze odpowiednich zasobów do konkretnych zastosowań AI. Możliwość optymalizacji wydajności i kosztów sprawia, że firmy mogą lepiej dostosowywać modele do swoich potrzeb, niezależnie od miejsca ich wdrożenia.
Autor: Wojciech Furmankiewicz, dyrektor Red Hat ds. technologii i rozwiązań w regionie Europy Środkowo-Wschodniej
Źródło: Red Hat
Najnowsze wiadomości
Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.
Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
Europejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Najnowsze artykuły
5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".
Oferty Pracy
-
Młodszy konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant Microsoft Dynamics 365
-
Konsultant Wdrożeniowy Symfonia – księgowość
-
Microsoft Fabric Engineer (MFE)
-
Data/Business Analyst (PBI/Fabric)
-
CRM consultant
-
Starszy architekt systemów rozproszonych
-
Inżynier Zastosowań AI
Przeczytaj Również
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znaczni… / Czytaj więcej
Vertiv Frontiers: 5 trendów, które przeprojektują centra danych pod „fabryki AI”
Centra danych wchodzą w erę „fabryk AI”, gdzie o przewadze nie decyduje już sama skala, lecz zdolno… / Czytaj więcej
Cyberbezpieczeństwo 2026. 6 trendów, które wymuszą nowe podejście do AI, danych i tożsamości
Rok 2026 zapowiada się jako moment przełomu w świecie cyfrowego bezpieczeństwa. W obliczu dynamiczn… / Czytaj więcej
Jurysdykcja danych w chmurze: dlaczego polskie firmy coraz częściej wybierają „gdzie leżą” ich system
Jurysdykcja danych przestała być detalem w umowach chmurowych – dziś decyduje o zgodności, bezpiecz… / Czytaj więcej
Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI
72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej
Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane
Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej

