Informe de investigación de AI Layer1: Buscando un terreno fértil para DeAI on-chain
Resumen
Fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los grandes modelos de lenguaje. Los grandes modelos de lenguaje han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para reemplazar el trabajo humano en algunos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos centralizados. Con un capital robusto y el control sobre costosos recursos de computación, estas empresas han establecido barreras casi insuperables, dificultando que la gran mayoría de desarrolladores y equipos de innovación puedan competir.
Al mismo tiempo, en la etapa temprana de la rápida evolución de la IA, la opinión pública suele centrarse en los avances y la conveniencia que aporta la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA es "buena" o "mala" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en algunos de los principales blockchains. Sin embargo, un análisis profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los componentes clave e infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena aún presenta limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, es necesario que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con las soluciones centralizadas. Necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de AI, tiene una arquitectura subyacente y un diseño de rendimiento que se centra estrechamente en las necesidades de las tareas de AI, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de AI en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de incentivo eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento e inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la distribución eficiente de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de grandes modelos de lenguaje, requieren un rendimiento computacional y una capacidad de procesamiento paralelo extremadamente altos. Además, el ecosistema de IA on-chain a menudo debe soportar tipos de tareas diversas y heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios múltiples. AI Layer 1 debe optimizar profundamente su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y prever una capacidad de soporte nativa para recursos de computación heterogéneas, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente y logrando una expansión fluida desde "tareas simples" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La capa AI Layer 1 no solo debe prevenir riesgos de seguridad como el mal uso del modelo y la manipulación de datos, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. A través de la integración de entornos de ejecución confiables, pruebas de conocimiento cero, y computación segura multi-party, la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de manera independiente, asegurando la imparcialidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de las salidas de la IA, logrando "lo obtenido es lo deseado", aumentando así la confianza y satisfacción del usuario en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios; en los campos financiero, médico y social, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad mientras utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Capacidad poderosa de soporte y desarrollo de ecosistemas Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe poseer liderazgo técnico, sino también proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promoverá la implementación de diversas aplicaciones nativas de IA, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual de los proyectos y explorando las tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una cadena de bloques AI Layer1 (, que en su fase inicial será Layer 2, y luego se trasladará a Layer 1). Al combinar AI Pipeline y tecnología de blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es abordar los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado de modelos de lenguaje centralizados a través del marco "OML" (Abierto, Rentable, Leal), permitiendo que los modelos de IA tengan una estructura de propiedad en cadena, transparencia en las llamadas y distribución del valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables de la seguridad y la privacidad de la IA, mientras que el cofundador de Polygon, Sandeep Nailwal, lidera la estrategia blockchain y el despliegue ecológico. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como las principales universidades como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo campos como IA/ML, NLP, visión por computadora, entre otros, colaborando para impulsar la implementación del proyecto.
Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su fundación, contando con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporcionó un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otros inversores como Delphi, Hashkey y Spartan, entre decenas de reconocidas firmas de capital de riesgo.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un canal de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para desarrollar y entrenar artefactos de "IA leal", e incluye dos procesos centrales:
Curaduría de datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): asegurar que el modelo mantenga un proceso de entrenamiento coherente con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlado por contrato de autorización;
Capa de acceso: Verifica si el usuario está autorizado a través de la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago a los entrenadores, desplegadores y validadores en cada llamada.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:
Apertura: El modelo debe ser de código abierto, con un código y una estructura de datos transparentes, facilitando la reproducibilidad, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo generará un flujo de ingresos, el contrato en cadena distribuirá las ganancias a los entrenadores, implementadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de las actualizaciones y la gobernanza son decididas por la DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Huella digital incrustada: insertar un conjunto de pares clave-valor de consulta-respuesta ocultos durante el entrenamiento para formar una firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada autorizado: antes de la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema autoriza al modelo a decodificar la entrada y devolver la respuesta precisa en función de esto.
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de la re-encriptación.
Marco de ejecución segura y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y participación en contratos on-chain. El método de huellas dactilares se implementa en OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, y se pueden detectar y castigar las infracciones.
El mecanismo de huellas digitales es una implementación clave de OML, que permite que el modelo genere firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la propiedad, evitando copias y comercializaciones no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro en cadena rastreable de las conductas de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables para asegurar que los modelos solo respondan a solicitudes autorizadas, previniendo accesos y usos no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos en la actualidad.
En el futuro, Sentient planea introducir conocimiento cero.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
2
Compartir
Comentar
0/400
BanklessAtHeart
· 08-01 18:15
¡Otra ola de nuevas historias on-chain ha comenzado!
Exploración de la carrera de AI Layer1: Infraestructura clave para construir un ecosistema de AI Descentralización.
Informe de investigación de AI Layer1: Buscando un terreno fértil para DeAI on-chain
Resumen
Fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los grandes modelos de lenguaje. Los grandes modelos de lenguaje han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para reemplazar el trabajo humano en algunos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos centralizados. Con un capital robusto y el control sobre costosos recursos de computación, estas empresas han establecido barreras casi insuperables, dificultando que la gran mayoría de desarrolladores y equipos de innovación puedan competir.
Al mismo tiempo, en la etapa temprana de la rápida evolución de la IA, la opinión pública suele centrarse en los avances y la conveniencia que aporta la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA es "buena" o "mala" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en algunos de los principales blockchains. Sin embargo, un análisis profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los componentes clave e infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena aún presenta limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, es necesario que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con las soluciones centralizadas. Necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de AI, tiene una arquitectura subyacente y un diseño de rendimiento que se centra estrechamente en las necesidades de las tareas de AI, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de AI en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de incentivo eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento e inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la distribución eficiente de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de grandes modelos de lenguaje, requieren un rendimiento computacional y una capacidad de procesamiento paralelo extremadamente altos. Además, el ecosistema de IA on-chain a menudo debe soportar tipos de tareas diversas y heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios múltiples. AI Layer 1 debe optimizar profundamente su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y prever una capacidad de soporte nativa para recursos de computación heterogéneas, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente y logrando una expansión fluida desde "tareas simples" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La capa AI Layer 1 no solo debe prevenir riesgos de seguridad como el mal uso del modelo y la manipulación de datos, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. A través de la integración de entornos de ejecución confiables, pruebas de conocimiento cero, y computación segura multi-party, la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de manera independiente, asegurando la imparcialidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de las salidas de la IA, logrando "lo obtenido es lo deseado", aumentando así la confianza y satisfacción del usuario en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios; en los campos financiero, médico y social, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad mientras utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Capacidad poderosa de soporte y desarrollo de ecosistemas Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe poseer liderazgo técnico, sino también proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promoverá la implementación de diversas aplicaciones nativas de IA, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual de los proyectos y explorando las tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una cadena de bloques AI Layer1 (, que en su fase inicial será Layer 2, y luego se trasladará a Layer 1). Al combinar AI Pipeline y tecnología de blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es abordar los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado de modelos de lenguaje centralizados a través del marco "OML" (Abierto, Rentable, Leal), permitiendo que los modelos de IA tengan una estructura de propiedad en cadena, transparencia en las llamadas y distribución del valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables de la seguridad y la privacidad de la IA, mientras que el cofundador de Polygon, Sandeep Nailwal, lidera la estrategia blockchain y el despliegue ecológico. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como las principales universidades como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo campos como IA/ML, NLP, visión por computadora, entre otros, colaborando para impulsar la implementación del proyecto.
Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su fundación, contando con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporcionó un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otros inversores como Delphi, Hashkey y Spartan, entre decenas de reconocidas firmas de capital de riesgo.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un canal de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para desarrollar y entrenar artefactos de "IA leal", e incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de la re-encriptación.
Marco de ejecución segura y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y participación en contratos on-chain. El método de huellas dactilares se implementa en OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, y se pueden detectar y castigar las infracciones.
El mecanismo de huellas digitales es una implementación clave de OML, que permite que el modelo genere firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la propiedad, evitando copias y comercializaciones no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro en cadena rastreable de las conductas de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables para asegurar que los modelos solo respondan a solicitudes autorizadas, previniendo accesos y usos no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos en la actualidad.
En el futuro, Sentient planea introducir conocimiento cero.