Red Hat acaba de lanzar nuevas actualizaciones en Red Hat AI, su portafolio de productos y servicios diseñados para acelerar el desarrollo y la implementación de soluciones de IA en la nube híbrida. Red Hat AI ofrece una plataforma de IA empresarial para el entrenamiento de modelos e inferencia, proporcionando más experiencia, flexibilidad y una experiencia simplificada para implementar sistemas en cualquier lugar en la nube híbrida
En la búsqueda por reducir los costos de implementación de grandes modelos de lenguaje (LLMS) para atender a un número creciente de casos de uso, las empresas aún enfrentan el desafío de integrar estos sistemas con sus datos propietarios y acceder a ellos desde cualquier lugar: ya sea en un datacenter, en la nube pública o incluso en el edge
Integrando tanto Red Hat OpenShift AI como Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI responde a estas preocupaciones al proporcionar una plataforma de IA empresarial que permite adoptar modelos más eficientes y optimizados, ajustados con los datos específicos del negocio, con posibilidad de ser implantados en la nube híbrida para entrenar modelos en una amplia gama de arquitecturas de computación
Para Joe Fernandes, vicepresidente y gerente general de Unidad de Negocios de IA de Red Hat, la actualización permite que las organizaciones sean precisas y económicas en sus trayectorias de IA. "Red Hat sabe que las empresas necesitarán formas de gestionar el creciente costo de sus implementaciones de IA generativa", a medida que traen más casos de uso para producción y operan a escala.. Red Hat AI ayuda a las organizaciones a abordar estos desafíos, permitiendo que dispongan de modelos más eficientes, desarrollados para un propósito, entrenados con sus datos y que permiten inferencia flexible en entornos locales, de nube y en la edge.”
Red Hat OpenShift AI
Red Hat OpenShift AI ofrece una plataforma completa de IA para gestionar los ciclos de vida de IA predictiva y generativa (gen AI) en la nube híbrida, incluyendo operaciones de aprendizaje automático (MLOps) y capacidades de operaciones de modelos de lenguaje grande (LLMOps). La plataforma ofrece funcionalidades para construir modelos predictivos y ajustar modelos de IA generativa, junto con herramientas para simplificar la gestión de modelos de IA, desde pipelines de ciencia de datos y modelos hasta el monitoreo de modelos, gobernanza y mucho más.
Versión más reciente de la plataforma, Red Hat OpenShift AI 2.18, añade nuevas actualizaciones y capacidades para apoyar el objetivo de Red Hat AI de traer modelos de IA más optimizados y eficientes para la nube híbrida. Los principales recursos incluyen
● Servicio distribuidodisponible a través del servidor de inferencia vLLM, el servicio distribuido permite que los equipos de TI dividan el servicio de modelos entre varias unidades de procesamiento gráfico (GPUs). Esto ayuda a aliviar la carga en un solo servidor, acelera el entrenamiento y el ajuste fino y promueve el uso más eficiente de los recursos de computación, al mismo tiempo que ayuda a distribuir los servicios entre los nodos para los modelos de IA
● Experiencia de ajuste de modelo de punta a puntausando InstructLab y los pipelines de ciencia de datos de Red Hat OpenShift AI, este nuevo recurso ayuda a simplificar el ajuste fino de los LLMs, haciéndolos más escalables, eficientes y auditables en grandes entornos de producción, al mismo tiempo que entrega gestión a través del panel de control de Red Hat OpenShift AI
● Barras de protección de IARed Hat OpenShift AI 2.18 ayuda a mejorar la precisión, el rendimiento, la latencia y la transparencia de los LLMs a través de una previsualización de la tecnología AI Guardrails, que monitorea y protege las interacciones de entrada del usuario y las salidas del modelo. AI Guardrails ofrece recursos adicionales de detección para ayudar a los equipos de TI a identificar y mitigar discursos potencialmente odiosos, abusivos o profanos, información personal identificable, datos de competidores u otros restringidos por políticas corporativas
● Evaluación de modelousando el componente de evaluación de modelo de lenguaje (lm-eval) para proporcionar información importante sobre la calidad general del modelo, la evaluación del modelo permite a los científicos de datos comparar el rendimiento de sus LLM en varias tareas, desde el razonamiento lógico y matemático hasta el lenguaje natural adversarial, ayudando a crear modelos de IA más efectivos, responsivos y adaptados
RHEL IA
Parte del portafolio de Red Hat AI, el RHEL AI es una plataforma de modelos fundamentales para desarrollar, probar y ejecutar LLMs de forma más consistente, con el objetivo de impulsar aplicaciones empresariales. El RHEL AI ofrece modelos Granite LLMs y herramientas de alineación de modelos InstructLab, qué son paquetes en una imagen inicializable de Red Hat Enterprise Linux y pueden ser desplegados en la nube híbrida
Lanzado en febrero de 2025, el RHEL 1.4 trajo diversas mejoras, incluyendo
● Soporte para el modelo Granite 3.1 8Bcomo la más reciente adición a la familia de modelos Granite con licencia open source. O modelo adiciona suporte multilíngue para inferência e personalização de taxonomia/conhecimento (pré-visualização para desenvolvedores), además de una ventana de contexto de 128k para mejorar la adopción de resultados de resumen y tareas de Generación Aumentada por Recuperación (RAG)
● Nueva interfaz gráfica de usuario para contribuir con habilidades y conocimientos previos, disponible en formato de vista previa para desarrolladores, con el objetivo de simplificar el consumo y la fragmentación de datos, así como permitir que los usuarios añadan sus propias habilidades y contribuciones a modelos de IA
● Banco de Conhecimento de Documentos (DK-bench)para facilitar comparaciones entre modelos de IA ajustados con datos privados relevantes con el rendimiento de los mismos modelos base no ajustados
Red Hat AI InstructLab en IBM Cloud
Cada vez más, las empresas están en busca de soluciones de IA que prioricen la precisión y la seguridad de sus datos, al mismo tiempo que mantienen los costos y la complejidad lo más bajos posible. El Red Hat AI InstructLab, disponible como un servicio en IBM Cloud, fue diseñado para simplificar, escalar y ayudar a mejorar la seguridad en el entrenamiento y la implementación de sistemas de IA. Al simplificar el ajuste de modelos del InstructLab, las organizaciones pueden construir plataformas más eficientes, adaptadas a sus necesidades únicas, manteniendo el control de su información confidencial.
Entrenamiento gratuito sobre los Fundamentos de la IA
La IA es una oportunidad transformadora que está redefiniendo cómo las empresas operan y compiten. Para apoyar a las organizaciones en este escenario dinámico, Red Hat ofrece entrenamientos en línea gratuitos sobre Fundamentos de IA. La empresa está ofreciendo dos certificados de aprendizaje en IA, dirigidos tanto a líderes séniores experimentados como a principiantes, ayudando a educar a usuarios de todos los niveles sobre cómo la IA puede ayudar a transformar las operaciones comerciales, agilizar la toma de decisiones e impulsar la innovación
Disponibilidad
El Red Hat OpenShift AI 2.18 y el Red Hat Enterprise Linux AI 1.4 ya están disponibles. Más información sobre recursos adicionales, mejoras, correcciones de errores y cómo actualizar su versión de Red Hat OpenShift AI a la más reciente se pueden encontraraquí,y la versión más reciente de RHEL AI se puede encontraraquí.
El Red Hat AI InstructLab en IBM Cloud estará disponible pronto. La capacitación sobre los Fundamentos de IA de Red Hat ya está disponible para clientes