A Red Hat huet just nei Updates am Red Hat AI verëffentlecht, deng Portefeuille vun Produkter an Déngschtlechen entwéckelt fir d'Entwécklung an d'Implémentatioun vun AI-Léisungen an der hybrider Cloud ze beschleunegen. Red Hat AI bitt eng Plattform fir Geschäfts-KI fir d'Trainings vun Modeller an d'Inferenz, proporcionéieren méi Erfahrung, flexibilitéit an eng vereinfachte Erfahrung fir Systemer an all Plaz an der hybrider Cloud ze implementéieren
An der Sich no de reduzéieren d'Käschte vun der Implementatioun vun grousse Sproochmodeller (LLMS) fir e wuessende Zahl vun Uwendungen ze déngen, firmen stinn konfrontéiert d'Challenge dës Systemer mat hiren eegene Daten ze integréieren an se vun iwwerall ze zougräifen: egal ob an engem datacenter, an der öffentlechen Wolk oder sogar an der Edge
Integréiert souwuel Red Hat OpenShift AI wéi och Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI äntwert dës Suergen andeems et eng Enterprise AI Plattform ubitt, déi et erlaabt méi effizient a optiméiert Modeller anzeféieren, ajustéiert mat de spezifesch Date vum Geschäft, mat der Méiglechkeet fir an der hybrider Cloud implantéiert ze ginn fir Modeller an enger breeter Palette vun Computerarchitekturen ze trainéieren
Fir Joe Fernandes, vice-président et directeur général de l'Unité d'Affaires IA de Red Hat, d'aktualisatioun erlaabt Organisatiounen, präzis an wirtschaftlech an hiren IA-Reesen ze sinn. “Red Hat weess dass d'Firmaen Weeër brauchen fir d'käschte vun hire generativen IA-Implantatiounen ze managen, wéi si méi Fall vun Notzung fir Produktioun bréngen an an Skala operéieren.. Red Hat AI hëlpt Organisatiounen dës Erausfuerderungen unzegoen, erlaassend dass si disponéieren vun méi effiziente Modeller, entwéckelt fir eng Zilsetzung, trainéiert mat Äre Daten an déi flexibel Inferenz an on-premises Ëmfeld erméiglechen, vun der Wolle an an der Kante.”
Red Hat OpenShift AI
Red Hat OpenShift AI bitt eng komplett Plattform fir d'Verwaltung vun den Zäiten vun der prädiktiver an generativer KI (gen AI) an der hybrider Cloud, inklusiv Operatiounen vum Maschinnléieren (MLOps) an d'Fäegkeeten vun de Grouss Sproochmodell Operatiounen (LLMOps). D'Plattform bitt Funktiounen fir prädiktiv Modeller ze bauen an Gen AI Modeller anzepassen, zusammen mat Werkzeuge fir d'Verwalung vun AI Modeller ze vereinfachen, vun Datenwëssenschafts-Pipelines an Modeller bis zum Monitoren vun Modeller, governance an villen méi.
Versioun méi jonk vun der Plattform, Red Hat OpenShift AI 2.18, add neie aktualisatiounen an fäegkeeten fir d'Zil vum Red Hat AI ze ënnerstëtzen fir méi optiméiert a effizient AI Modeller an d'Hybrid Cloud ze bréngen. D'Haaptressourcen enthalen:
● Verdeelten Service: disponibel duerch de vLLM Inferenzserver, de servic distribué permet que les équipes TI divisent le servic de modèles entre plusieurs unités de traitement graphique (GPU). Dat hëlleft d'Last op engem eenzege Server ze reduzéieren, acceleréiert d'Trainings- an d'Feinjustéierung an fördert d'benotzen vun de Computatiounsressourcen méi effizient, zur selwechtzäit wéi et hëlleft d'Déngschtë fir d'Knoten fir d'IA Modeller ze verdeelen
● Erfarung vum Modelljustement vun Enn zu Ennbenotzen den InstructLab an den Datenwëssenschaftspipelines vum Red Hat OpenShift AI, dësen neie Ressource hëlleft fir d'Feinjustéierung vun de LLMs ze vereinfachen, maachen se méi skaléierbar, effizient an auditabel an grous Produktiounsumfeld, zur selwechtzäit wéi et d'Verwaltung duerch d'Kontrollpanel vum Red Hat OpenShift AI liwwert
● AI Wäertlinnen: de Red Hat OpenShift AI 2.18 hëlpt fir ze verbesseren d'Präzisioun, de performancen, d'laténz an d'transparenz vun de LLMs duerch eng Pré-Visioun vun der Technologie AI Guardrails, dat monitoréiert an schützt d'Benotzerinteraktiounen an d'Modellresultater. AI Guardrails bitt der zousätzlech Detektiounsfunktiounen fir d'TI-Teams ze hëllefen, potenziell haatzege Ried ze identifizéieren an ze minderen, abusif oder profan, persönlech identifizéierbar Informatiounen, daten vun konkurrenten oder anerer, déi duerch firmenpolitiken restriktéiert sinn
● Modellbewäertung: benotzt den Modellbewäertungskomponent (lm-eval) fir wichteg Informatiounen iwwer d'allgemeng Qualitéit vum Modell ze ginn, d'Bewäertung vum Modell erlaabt et den Datenwëssenschaftler den Aarbechtsleeschtung vun hiren LLMs an verschiddene Aufgaben ze vergläichen, vun logeschen an mathemateschen Denken bis zur natierlecher adversarischer Sprooch, hëllefen fir méi effektiv KI-Modeller ze kreéieren, responsiv an adaptéiert
RHEL AI
Deel vum Red Hat AI Portefeuille, de RHEL AI ass eng Plattform vun fundamentale Modeller fir ze entwéckelen, testen an executéieren LLMs op eng méi konsequent Manéier, mat dem Zil fir d'Entrepriseapplikatiounen ze förderen. RHEL AI bitt Granite LLMs a Werkzeien fir d'Ausriichtung vun InstructLab Modeller, wat sinn Pakete an engem initialiséierbare Bild vum Red Hat Enterprise Linux an kënnen an der hybrider Cloud implementéiert ginn
Veröffentlicht im Februar 2025, de RHEL 1.4 huet vill Verbesserungen bruecht, inklusiv
● Support for the Granite 3 model.1 8Bwéi déi méi jonk Zousatz zu der Granite Modellfamilie mat open source Lizenz. O modelo adiciona suporte multilíngue para inferência e personalização de taxonomia/conhecimento (pré-visualização para desenvolvedores), neben engem Kontextfenster von 128k zur Verbesserung der Annahme von Zusammenfassungsresultaten und Aufgaben der Retrieval-Augmented Generation (RAG)
● Nei grafeschi interfaccia da utente per contribuì cun abilità e cunniscenze precedenti, verfügbar im Vorschauformat für Entwickler, mat dem Zil fir de Konsum an d'Fragmentatioun vun Daten ze vereinfachen, aussi permettre aux utilisateurs d'ajouter leurs propres compétences et contributions aux modèles d'IA
● Dokument Wissensbank (DK-bench)fir firen comparisounen tëschen IA-modeller déi mat relevante private Daten ugepasst sinn an der Leeschtung vun den selwechte Basismodeller déi net ugepasst sinn
Red Hat AI InstructLab am IBM Cloud
Jidder méi, d'Entreprise si sichen no sichen no Léisungen vun IA déi d'Präzisioun an d'Sécherheet vun hiren Daten prioriséieren, zur selwecht Zäit wéi se d'Käschte an d'Komplexitéit esou niddereg wéi méiglech halen. Red Hat AI InstructLab, verfügbar als Dienst in der IBM Cloud, et ass eng fir ze vereinfachen, eskaléieren an hëllefen d'Sécherheet am Training an der Implementatioun vun AI-Systemer ze verbesseren. Bei der Vereinfachung der Anpassung von Modellen des InstructLab, organisatiounen kënnen méi effizient Plattformen bauen, adaptéiert un Är eenzegaarteg Bedierfnesser, hâltend d'kontroll iwwer äre vertraulichen Informatiounen.
Gratis Training iwwer d'Fundamenter vun der IA
D'IA ass eng eng transformativ Geleecht, déi definéiert wéi d'Firmaen operéieren an konkurréieren. Fir fir d'Organisatiounen an dësem dynamesche Szenario ze ënnerstëtzen, Red Hat bitt online gratis Training iwwer d'Fundamenter vun IA. D'Firma ass ebt zwee Zertifikater fir Léieren an IA, geriicht op souwuel erfuerene senior Leader wéi och Ufänger, hëllefen Benotzer vun allen Niveaue ze educéieren wéi d'AI kann hëllefen d'Geschäftsoperatiounen ze transforméieren, agiliséieren d'Entscheedungsfäegkeet an d'Innovatioun förderen
Verfügbarkeit
Red Hat OpenShift AI 2.18 an Red Hat Enterprise Linux AI 1.4 sinn scho verfügbar. Méi Informatiounen iwwer zousätzlech Ressourcen, verbesserungen, bugfixen an a wei wéi fir d'nei Versioun vum Red Hat OpenShift AI ze aktualiséieren kënnen fonnt ginnhei,an d'lescht Versioun vum RHEL AI kann fonnt ginnhei.
De Red Hat AI InstructLab op IBM Cloud zal binnenkort beschikbaar zijn. D' Ausbildung iwwer d'Fundamenter vun der IA vun Red Hat ass schonn verfügbar fir Clienten