Ponad trzy dekady temu, Red Hat dostrzegła potencjał rozwoju i licencji open source w tworzeniu lepszego oprogramowania i wspieraniu innowacji w IT. Trzydzieści milionów linii kodu później, Linux nie tylko rozwinął się do tego stopnia, że stał się najbardziej udanym oprogramowaniem open source, jak również utrzymuje tę pozycję do dziś. Zaangażowanie w zasady open source trwa nadal, nie tylko w modelu biznesowym korporacyjnym, jak również jest częścią kultury pracy. W ocenie firmy, te koncepcje mają ten sam wpływ na sztuczną inteligencję (SI), jeśli są realizowane w odpowiedni sposób, ale jednak świat technologii jest podzielony w kwestii tego, co byłoby "właściwym sposobem"
Sztuczna inteligencja, w szczególności duże modele językowe (LLM) stojące za generatywną sztuczną inteligencją (gen AI), nie może być postrzegana w ten sam sposób jak program otwarty. W przeciwieństwie do oprogramowania, modele AI składają się głównie z modeli parametrów numerycznych, które określają, jak model przetwarza dane wejściowe, tak jak połączenie, które tworzy między różnymi punktami danych. Parametry wytrenowanych modeli są wynikiem długiego procesu obejmującego ogromne ilości danych treningowych, które są starannie przygotowywane, zmieszane i przetworzone
Chociaż parametry modelu nie są oprogramowaniem, w niektórych aspektach mają funkcję podobną do kodu. Łatwo jest porównać, że dane są kodem źródłowym modelu, bylibyście mu bardzo bliscy. Brak otwartego źródła, kod źródłowy jest powszechnie definiowany jako „preferowana forma” do wprowadzania zmian w oprogramowaniu. Dane treningowe same w sobie nie pasują do tej funkcji, biorąc pod uwagę, że jego rozmiar różni się oraz z powodu skomplikowanego procesu wstępnego szkolenia, który prowadzi do słabego i pośredniego połączenia, jakie ma każdy element danych użytych w szkoleniu z wyuczonymi parametrami i wynikowym zachowaniem modelu
Większość ulepszeń i usprawnień w modelach AI, które obecnie zachodzą w społeczności, nie wiąże się z dostępem do oryginalnych danych treningowych ani ich manipulacją. Zamiast tego, są wynikiem modyfikacji parametrów modelu lub procesu czy dostosowania, które mogą również służyć do poprawy wydajności modelu. Wolność wprowadzania tych ulepszeń w modelu wymaga, aby parametry były udostępniane z wszystkimi uprawnieniami, które użytkownicy otrzymują na podstawie licencji open source
Wizja Red Hat dla otwartej sztucznej inteligencji
Red Hat wierzy, że podstawy otwartej sztucznej inteligencji znajdują się wparametry modelu licencjonowane w sposób open source połączone z komponentami oprogramowania open source. To jest punkt wyjścia dla otwartego oprogramowania AI, ale jednak nie ostatni cel filozofii. Red Hat wspiera społeczność open source, organy regulacyjne i przemysł nadal starają się o większą przejrzystość i zgodność z zasadami rozwoju open source podczas szkolenia i dostosowywania modeli AI
To jest wizja Red Hat jako firmy, co obejmuje ekosystem oprogramowania open source, można praktycznie zaangażować się w otwartą sztuczną inteligencję. To nie jest próba formalnej definicji, jak co doInicjatywa Otwartego Oprogramowania(OSI) rozwija z swojąDefinicja sztucznej inteligencji open source(OSAID). To jest punkt widzenia korporacji, który sprawia, że otwarte źródło AI jest wykonalne i dostępne dla jak najszerszego zestawu społeczności, organizacje i dostawcy
Ten punkt widzenia w praktyce jest realizowany poprzez pracę z społecznościami open source, wyróżniony przez projektInstructLab, prowadzone przez Red Hat i wysiłek z IBM Researchw rodzinie Granite modeli open source licencjonowanych. InstructLab znacznie obniża bariery, aby osoby, które nie są naukowcami danych, mogły przyczyniać się do modeli AI. Z InstructLab, specjaliści z różnych dziedzin mogą dodać swoje umiejętności i wiedzę, zarówno do użytku wewnętrznego, jak i do wspierania modelu open source AI, który jest współdzielony i szeroko dostępny dla społeczności upstream
Rodzina modeli Granite 3.0 obsługuje szeroki zakres zastosowań AI, od generacji kodu po przetwarzanie języka naturalnego w celu wydobyciaspostrzeżeniaz dużych zbiorów danych, wszystko na podstawie liberalnej licencji open source. Pomogliśmy IBM Research w wprowadzeniu rodziny modeli kodu Granite do świata open source i nadal wspieramy tę rodzinę modeli, zarówno z punktu widzenia open source, jak i jako część naszej oferty Red Hat AI
Reperkusjenajnowsze ogłoszenia DeepSeekpokaż, jak innowacja open source może wpłynąć na AI, zarówno na poziomie modelu, jak i poza nim. Oczywiście istnieją obawy dotyczące podejścia chińskiej platformy, głównie że licencja modelu nie wyjaśnia, jak został wyprodukowany, co to wzmacnia potrzebę przejrzystości. Mówiąc to, wspomniana disruptacja wzmacnia wizję Red Hat na temat przyszłości AI: otwarta przyszłość, skoncentrowany na mniejszych modelach, optymalizowane i otwarte, które mogą być dostosowane do specyficznych przypadków użycia danych biznesowych w każdym miejscu chmury hybrydowej.
Rozszerzanie modeli AI poza open source
Praca Red Hat w przestrzeni otwartej sztucznej inteligencji wykracza daleko poza InstructLab i rodzinę modeli Granite, idąc do narzędzi i platform potrzebnych do rzeczywistego korzystania i produktywnego używania AI. Firma stała się bardzo aktywna w promowaniu projektów i społeczności technologicznych, jak na przykład (ale nie tylko):
● RamaLama, projekt open source, który ma na celu ułatwienie zarządzania i udostępniania lokalnych modeli AI
● TrustyAI, otwarty zestaw narzędzi do budowy bardziej odpowiedzialnych przepływów pracy w AI
● Climatik, projekt skoncentrowany na pomocy w uczynieniu AI bardziej zrównoważoną pod względem zużycia energii
● Podman AI Lab, zestaw narzędzi dla deweloperów skoncentrowany na ułatwieniu eksperymentowania z otwartymi modelami LLM
TOniedawne ogłoszenieo Neural Magic poszerza wizję korporacyjną na temat AI, umożliwiając organizacjom dostosowanie mniejszych i zoptymalizowanych modeli AI, w tym systemy open source licencjonowane, z twoimi danymi, gdziekolwiek żyją w chmurze hybrydowej. Organizacje IT mogą, więc, używać serwera wnioskowaniavLLMaby wspierać decyzje i produkcję tych modeli, pomagając w budowie stosu AI opartego na przejrzystych technologiach i z wsparciem
Dla korporacji, otwarta sztuczna inteligencja żyje i oddycha w chmurze hybrydowej. Chmura hybrydowa zapewnia elastyczność potrzebną do wyboru najlepszego środowiska dla każdego obciążenia pracy AI, optymalizując wydajność, koszt, skala i wymagania bezpieczeństwa. Platformy, cele i organizacja Red Hat wspierają te wysiłki, wraz z partnerami z branży, klienci i społeczność open source, w miarę jak otwarte oprogramowanie w sztucznej inteligencji jest wspierane
Istnieje ogromny potencjał do rozszerzenia tej otwartej współpracy w obszarze AI. Red Hat dostrzega przyszłość, która obejmuje przejrzystą pracę w modelach, tak jak twoje szkolenie. Czy to w przyszłym tygodniu, czy w przyszłym miesiącu (lub nawet wcześniej, biorąc pod uwagę szybkość rozwoju AI, firma jest otwartą społecznością, jako całość, będą kontynuować wspieranie i przyjmowanie wysiłków na rzecz demokratyzacji i otwarcia świata AI