I. Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la capacidad de cómputo son los tres elementos centrales de la infraestructura de IA, comparables a combustible (datos), motor (modelo) y energía (capacidad de cómputo), que son indispensables. Al igual que la evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado por proyectos de GPU descentralizados como (Akash, Render, io.net, etc. ), que enfatizaban en general la lógica de crecimiento extensivo de "competir por la capacidad de cómputo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste ligero de un modelo base reutilizable, que generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos en áreas específicas, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura de agente, el enrutamiento dinámico del sistema de plugins, la inserción en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación), entre otros. Esta arquitectura conserva la amplia capacidad de LLM y, al mismo tiempo, mejora el rendimiento profesional mediante módulos de ajuste fino, formando un sistema inteligente combinado de alta flexibilidad.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
La barrera técnica es demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Base son extremadamente grandes, y actualmente solo ciertos gigantes tecnológicos poseen dicha capacidad.
Limitaciones del ecosistema de código abierto: Aunque modelos fundamentales como LLaMA y Mixtral ya son de código abierto, la clave para impulsar verdaderamente los avances en los modelos sigue concentrada en instituciones de investigación y sistemas de ingeniería cerrados, y el espacio de participación de los proyectos en cadena a nivel de modelos centrales es limitado.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinados con la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se refleja en dos direcciones clave:
Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de la salida de IA.
Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar la carga de datos, la llamada a modelos, la ejecución de agentes, entre otras acciones, construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de tipo Crypto AI basados en modelos se centran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena con la arquitectura RAG, así como el despliegue local de modelos Edge y su incentivación. Combinando la verificabilidad de blockchain y los mecanismos de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciador en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inalterable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llama a datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
II. Resumen del Proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue pionero en el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en la cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que abarca desde "provisión de datos" hasta "despliegue de modelos" y "llamada de reparto de beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: sin necesidad de programar, se puede usar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto;
OpenLoRA: admite la coexistencia de miles de modelos, carga dinámica según sea necesario, reduciendo significativamente los costos de implementación.
PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena.
Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, invocable y pagadero.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura de economía de agentes inteligente" impulsada por datos y modelada de manera combinable, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajos costos;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: facilita a los desarrolladores desplegar y expandir rápidamente sobre Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA como NEAR, que son más de nivel base y se centran en la soberanía de datos y en la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA específicas dirigidas a la incentivación de datos y modelos, dedicándose a hacer que el desarrollo y la llamada de modelos se realicen en la cadena con un ciclo de valor trazable, combinable y sostenible. Es la infraestructura de incentivación de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de HuggingFace, la facturación por uso al estilo de Stripe y interfaces combinables en la cadena al estilo de Infura, impulsando el camino hacia la realización de "modelos como activos".
Tres, los componentes clave y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación de interfaz gráfica pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyo proceso central incluye:
Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM populares (como LLaMA, Mistral), configuración de hiperparámetros a través de GUI.
Ajuste ligero: motor LoRA / QLoRA incorporado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue de modelos: Herramientas de evaluación integradas, que soportan la exportación para despliegue o llamadas compartidas en el ecosistema.
Interfaz de verificación interactiva: Proporciona una interfaz de chat que facilita la prueba directa de la capacidad de respuesta del modelo.
Generación de RAG para trazabilidad: Responder con citas de origen, aumentando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, que abarcan la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicio de modelos integrada que es segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Serie LLaMA: el ecosistema más amplio, comunidad activa y rendimiento general fuerte, es uno de los modelos básicos de código abierto más populares en la actualidad.
Mistral: Arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios con despliegue flexible y recursos limitados.
Qwen: Producto de Alibaba, con un excelente desempeño en tareas en chino, gran capacidad integral, ideal para desarrolladores nacionales como primera opción.
ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente en nichos y escenarios de localización.
Deepseek: destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: un modelo ligero lanzado por Google, con una estructura clara, fácil de comenzar y experimentar rápidamente.
Falcon: Fue un referente de rendimiento, adecuado para investigación básica o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en despliegues reales.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no es obsoleta, sino que se basa en las restricciones de la realidad de la implementación en la cadena (coste de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de baja barrera, capacidad de monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
Para los usuarios: se pueden combinar modelos o agentes de manera similar a como se llama a la API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Low-Rank Adaptation) es un método eficiente de ajuste de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en modelos grandes preentrenados, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), se requiere un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).
Componente central de la arquitectura del sistema OpenLoRA, basado en un diseño modular, cubriendo el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de almacenamiento de adaptadores LoRA (Almacenamiento de adaptadores LoRA): Los adaptadores LoRA ajustados se alojan en OpenLedger, permitiendo la carga bajo demanda, evitando que todos los modelos se precarguen en la memoria de video, ahorrando recursos.
Modelo de Alojamiento y Capa de Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos ajustados comparten el modelo base (base model), durante la inferencia el adaptador LoRA se fusiona dinámicamente, soportando múltiples adaptadores para inferencia conjunta (ensemble), mejorando el rendimiento.
Motor de Inferencia (Inference Engine): integra varias tecnologías de optimización CUDA como Flash-Attention, Paged-Attention y optimización SGMV.
Módulo de enrutamiento de solicitudes y transmisión de tokens (Request Router & Token Streaming): Enrutar dinámicamente al adaptador correcto según el modelo requerido en la solicitud, logrando generación en streaming a nivel de token mediante la optimización del núcleo.
El proceso de inferencia de OpenLoRA pertenece a la capa técnica de "servicio de modelo "maduro y general". A continuación:
Carga del modelo base: el sistema pre-carga modelos base como LLaMA 3, Mistral, etc.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
5
Compartir
Comentar
0/400
WalletDetective
· hace14h
lo que dice esta artículo sobre el vacío urbano
Ver originalesResponder0
rugpull_survivor
· hace14h
No te hagas el tonto, solo son monedas de potencia computacional.
Ver originalesResponder0
AirdropFatigue
· hace14h
Otra vez con un nuevo concepto, desanimando a los novatos.
Ver originalesResponder0
OnchainDetective
· hace15h
Otra vez llega la economía del modelo yy.
Ver originalesResponder0
YieldChaser
· hace15h
¿Qué puede hacer este agente de manera transparente?
OpenLedger crea una nueva generación de cadena de IA para construir una economía de agentes inteligentes impulsada por datos.
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la capacidad de cómputo son los tres elementos centrales de la infraestructura de IA, comparables a combustible (datos), motor (modelo) y energía (capacidad de cómputo), que son indispensables. Al igual que la evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado por proyectos de GPU descentralizados como (Akash, Render, io.net, etc. ), que enfatizaban en general la lógica de crecimiento extensivo de "competir por la capacidad de cómputo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste ligero de un modelo base reutilizable, que generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos en áreas específicas, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura de agente, el enrutamiento dinámico del sistema de plugins, la inserción en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación), entre otros. Esta arquitectura conserva la amplia capacidad de LLM y, al mismo tiempo, mejora el rendimiento profesional mediante módulos de ajuste fino, formando un sistema inteligente combinado de alta flexibilidad.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinados con la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se refleja en dos direcciones clave:
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de tipo Crypto AI basados en modelos se centran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena con la arquitectura RAG, así como el despliegue local de modelos Edge y su incentivación. Combinando la verificabilidad de blockchain y los mecanismos de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciador en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inalterable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llama a datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
II. Resumen del Proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue pionero en el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en la cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que abarca desde "provisión de datos" hasta "despliegue de modelos" y "llamada de reparto de beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura de economía de agentes inteligente" impulsada por datos y modelada de manera combinable, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA como NEAR, que son más de nivel base y se centran en la soberanía de datos y en la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA específicas dirigidas a la incentivación de datos y modelos, dedicándose a hacer que el desarrollo y la llamada de modelos se realicen en la cadena con un ciclo de valor trazable, combinable y sostenible. Es la infraestructura de incentivación de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de HuggingFace, la facturación por uso al estilo de Stripe y interfaces combinables en la cadena al estilo de Infura, impulsando el camino hacia la realización de "modelos como activos".
Tres, los componentes clave y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación de interfaz gráfica pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyo proceso central incluye:
La arquitectura del sistema Model Factory incluye seis módulos, que abarcan la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicio de modelos integrada que es segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no es obsoleta, sino que se basa en las restricciones de la realidad de la implementación en la cadena (coste de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de baja barrera, capacidad de monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Low-Rank Adaptation) es un método eficiente de ajuste de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en modelos grandes preentrenados, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), se requiere un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).
Componente central de la arquitectura del sistema OpenLoRA, basado en un diseño modular, cubriendo el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
El proceso de inferencia de OpenLoRA pertenece a la capa técnica de "servicio de modelo "maduro y general". A continuación: