Meer dan drie decennia geleden, Red Hat zag het potentieel van ontwikkeling en open source-licenties om betere software te creëren en innovatie in IT te bevorderen. Dertig miljoen regels code later, Linux is niet alleen ontwikkeld tot het meest succesvolle open source software, zoals het ook deze positie tot vandaag de dag behoudt. De toewijding aan de open source principes blijft bestaan, niet alleen in het bedrijfsmodel, zoals het ook deel uitmaakt van de werkcultuur. Bij de beoordeling van het bedrijf, deze concepten hebben dezelfde impact op kunstmatige intelligentie (AI) als ze op de juiste manier worden uitgevoerd, maar de wereld van technologie is verdeeld over wat de "juiste manier" zou zijn
De AI, in het bijzonder de grote taalmodellen (LLMs) achter generatieve AI, kan niet op dezelfde manier worden gezien als een open programma. In tegenstelling tot de software, de IA-modellen bestaan voornamelijk uit modellen van numerieke parameters die bepalen hoe een model invoer verwerkt, evenals de verbinding die het maakt tussen verschillende datapunten. Gepersonaliseerde modelparameters zijn het resultaat van een langdurig proces dat enorme hoeveelheden zorgvuldig voorbereide trainingsgegevens omvat, gemengd en verwerkt
Hoewel de modelparameters geen software zijn, in sommige opzichten hebben ze een vergelijkbare functie als de code. Het is gemakkelijk om de vergelijking te maken dat gegevens de broncode van het model zijn, jullie zouden hem heel dichtbij zijn. Geen open source, de broncode wordt vaak gedefinieerd als de "voorkeursvorm" om wijzigingen in de software aan te brengen. De trainingsgegevens alleen passen niet in deze functie, aangezien de grootte verschilt en door het complexe pre-trainingsproces dat resulteert in een zwakke en indirecte verbinding die elk item van de gegevens die tijdens de training zijn gebruikt heeft met de getrainde parameters en het resulterende gedrag van het model
De meeste verbeteringen en verfijningen in AI-modellen die momenteel in de gemeenschap plaatsvinden, hebben geen betrekking op toegang tot of manipulatie van de oorspronkelijke trainingsgegevens. In plaats daarvan, ze zijn het resultaat van wijzigingen in de modelparameters of in een proces of aanpassing die ook kan dienen om de prestaties van het model aan te passen. De vrijheid om deze verbeteringen aan het model aan te brengen vereist dat de parameters worden vrijgegeven met alle rechten die gebruikers ontvangen onder open source-licenties
Visie van Red Hat voor open source AI
Red Hat gelooft dat de basis van open source IA ligt in deopen source gelicentieerde modelparameters gecombineerd met open source softwarecomponenten. Dit is een startpunt voor open source AI, maar niet de laatste bestemming van de filosofie. Red Hat moedigt de open source gemeenschap aan, regelgevende autoriteiten en de industrie blijven zich inspannen voor meer transparantie en afstemming op de principes van open source ontwikkeling bij het trainen en afstemmen van AI-modellen
Dit is de visie van Red Hat als bedrijf, wat een ecosysteem van open source software omvat, je kunt praktisch betrokken raken bij open source AI. Het is geen poging tot een formele definitie, hoe dat aOpen Source Initiatief(OSI) is aan het ontwikkelen met zijnOpen Source AI Definitie(OSAID). Dit is het standpunt van de corporatie dat open source IA haalbaar en toegankelijk maakt voor de grootste groep gemeenschappen, organisaties en leveranciers
Dit perspectief wordt in de praktijk gebracht door middel van samenwerking met open source gemeenschappen, uitgelicht door het projectInstructLab, geleid door Red Hat en de inspanning met IBM Researchin de Granite-familie van open source modellen met licentie. InstructLab verlaagt aanzienlijk de drempels zodat mensen die geen datawetenschappers zijn kunnen bijdragen aan AI-modellen. Met InstructLab, domeinexperts uit alle sectoren kunnen hun vaardigheden en kennis toevoegen, zowel voor intern gebruik als om een open source AI-model te helpen dat gedeeld en breed toegankelijk is voor upstream gemeenschappen
De familie van Granite 3-modellen.0 behandelt een breed scala aan AI-gebruikscases, van codegeneratie tot natuurlijke taalverwerking om te extrahereninzichtenvan grote datasets, alles onder een permissieve open source licentie. Wij hebben IBM Research geholpen de Granite-code modellenfamilie naar de open source wereld te brengen en blijven ondersteuning bieden aan de modellenfamilie, zowel vanuit het perspectief van open source als onderdeel van ons Red Hat AI-aanbod
De repercussie van derecente advertenties van DeepSeektoont aan hoe open source innovatie de AI kan beïnvloeden, zowel op modelniveau als daarbuiten. Er zijn uiteraard zorgen over de aanpak van het Chinese platform, vooral dat de licentie van het model niet uitlegt hoe het is geproduceerd, wat de noodzaak van transparantie versterkt. Dat gezegd hebbende, de genoemde disruptie versterkt de visie van Red Hat op de toekomst van AI: een open toekomst, gefocust op kleinere modellen, geoptimaliseerd en open, die kunnen worden aangepast voor specifieke zakelijke datagevallen overal in de hybride cloud.
Uitbreiden van AI-modellen buiten open source
Het werk van Red Hat op het gebied van open source AI gaat veel verder dan InstructLab en de Granite-modelfamilie, tot de de tools en platforms die nodig zijn om AI daadwerkelijk te consumeren en productief te gebruiken. Het bedrijf is zeer actief geworden in het bevorderen van technologieprojecten en -gemeenschappen, zoals bijvoorbeeld (maar niet alleen):
● RamaLama, een open source project dat gericht is op het vergemakkelijken van het beheer en de lokale beschikbaarstelling van AI-modellen
● TrustyAI, een open source toolkit voor het bouwen van verantwoordelijkere AI-werkstromen
● Climatik, een project gericht op het helpen van het verduurzamen van AI als het gaat om energieverbruik
● Podman AI Lab, een ontwikkelaars toolkit gericht op het vergemakkelijken van experimenteren met open source LLMs
DErecentelijke aankondigingover Neural Magic breidt de bedrijfsvisie op AI uit, het mogelijk maken voor organisaties om kleinere en geoptimaliseerde AI-modellen af te stemmen, inclusief gelicentieerde open source systemen, met uw gegevens, waar ze ook wonen in de hybride cloud. IT-organisaties kunnen, dus, gebruik de inferentieservervLLMom beslissingen en de productie van deze modellen te stimuleren, helpen bij het bouwen van een AI-stack gebaseerd op transparante technologieën en met ondersteuning
Voor de corporatie, de open source AI leeft en ademt in de hybride cloud. De hybride cloud biedt de nodige flexibiliteit om de beste omgeving voor elke AI-werklast te kiezen, de prestaties optimaliseren, kost, schaal en veiligheidsvereisten. De platforms, doelen en organisatie van Red Hat ondersteunen deze inspanningen, samen met partners uit de sector, klanten en de open source gemeenschap, naarmate open source in kunstmatige intelligentie wordt gestimuleerd
Er is een enorm potentieel om deze open samenwerking op het gebied van AI uit te breiden. Red Hat ziet een toekomst die transparant werk in modellen omvat, net als uw training. Of het volgende week is of de volgende maand (of zelfs eerder, gegeven de snelheid van de evolutie van AI, het bedrijf is een open gemeenschap, als geheel, zullen blijven steunen en de inspanningen aannemen om de wereld van AI te democratiseren en te openen