Home Tecnología China introduce censura para desarrollar IA socialista

China introduce censura para desarrollar IA socialista

35
0
China introduce censura para desarrollar IA socialista

Las autoridades del gobierno chino prueban modelos lingüísticos a gran escala de empresas de inteligencia artificial para garantizar que sus sistemas “incorporen valores socialistas fundamentales” en la última expansión del sistema de censura del país.

Según múltiples informes, la Administración del Ciberespacio de China (CAC), un poderoso regulador de Internet, ha ordenado a las principales empresas de tecnología y nuevas empresas de inteligencia artificial, incluidas ByteDance, Alibaba, Moonshot y 01.AI, que restrinjan sus modelos de inteligencia artificial. se vio obligado a participar en una revisión gubernamental obligatoria. Personas involucradas en el proceso.

El esfuerzo implica probar por lotes las respuestas de los LLM a una serie de preguntas, muchas de las cuales se relacionan con: Porcelanasensibilidad política y el presidente Xi Jinping.

Este trabajo lo lleva a cabo personal de las divisiones locales de CAC en todo el país e incluye una revisión de los datos de capacitación del modelo y otros procesos de seguridad.

Dos décadas después de que el gobernante Partido Comunista introdujera el “Gran Cortafuegos” para bloquear sitios web extranjeros y otra información considerada dañina, China ha introducido el régimen regulatorio más estricto del mundo que rige la IA y el contenido generado por IA.

Un empleado de una empresa de inteligencia artificial con sede en Hangzhou dijo bajo condición de anonimato que CAC “tiene un equipo especial que hace esto. Vienen a nuestra oficina, se sientan en nuestra sala de conferencias y realizan la auditoría”.

“No fuimos los primeros en aprobar. El motivo no estaba muy claro, por lo que tuvimos que consultar a nuestros colegas”, dijo la fuente. “Se necesitan un poco de conjeturas y ajustes. Aprobé la segunda vez, pero todo el proceso tomó meses”.

El estricto proceso de aprobación de China requiere que los grupos nacionales de IA aprendan rápidamente cuál es la mejor manera de censurar los grandes modelos de lenguaje que están construyendo, una tarea que requiere capacitar a los LLM en una gran cantidad de modelos de lenguaje. Varios ingenieros y funcionarios de la industria dicen que el proceso es difícil y complejo debido a. la naturaleza compleja del proceso. Contenido en inglés.

“Nuestro modelo básico es muy gratuito. [in its answers]Por lo tanto, el filtrado de seguridad es muy importante”, dijo un empleado de una startup líder en inteligencia artificial en Beijing.

El filtrado comienza eliminando información problemática de los datos de capacitación y creando una base de datos de palabras clave confidenciales. Las directrices operativas para las empresas chinas de IA publicadas en febrero establecen que los grupos de IA son responsables de miles de violaciones de los “valores fundamentales socialistas”, incluida “incitación a la subversión del poder estatal” y “socavar la unidad nacional”. preguntas. Se supone que las palabras clave sensibles deben actualizarse semanalmente.

Los resultados son visibles para los usuarios del chatbot de IA de China. La mayoría de los chinos son rechazados por el chatbot. El chatbot Ernie de Baidu les dice a los usuarios que “prueben con otra pregunta”, mientras que Tongyi Qianwen de Alibaba responde: Seguiremos estudiando para poder dar un mejor servicio. “

Por el contrario, el gobierno chino ha basado su nuevo modelo en la filosofía política del presidente chino conocida como “El pensamiento de Xi Jinping sobre el socialismo con características chinas para una nueva era” y otra literatura oficial proporcionada por la Administración del Ciberespacio de China. Estamos implementando un chatbot de IA. . Porcelana.

Pero los funcionarios chinos también quieren evitar desarrollar una IA que evite todos los temas políticos. El CAC ha introducido límites en la cantidad de preguntas que los LLM pueden rechazar durante las pruebas de seguridad, según el personal de una organización que ayuda a las empresas de tecnología a ejecutar el proceso. Los estándares subnacionales publicados en febrero establecen que los LLM no deben rechazar más del 5 por ciento de las preguntas formuladas.

“mientras tanto [CAC] prueba, [models] Tenemos que reaccionar, pero una vez que está en funcionamiento, nadie lo ve”, dijo un desarrollador de una empresa de Internet con sede en Shanghai. “Para evitar posibles problemas, hemos implementado una prohibición total de temas relacionados con el presidente Xi en algunos de nuestros modelos más grandes”.

Los expertos de la industria citaron a “Kimi”, un chatbot lanzado por la startup Moonshot de Beijing, que rechaza la mayoría de las preguntas sobre Xi, como ejemplo del proceso de censura de palabras clave.

Pero la necesidad de responder preguntas menos delicadas significa que los ingenieros chinos están descubriendo cómo garantizar que los LLM obtengan respuestas políticamente correctas a preguntas como “¿Tiene China derechos humanos?” o “¿Es el presidente Xi Jinping un gran líder?”

Cuando el Financial Times hizo estas preguntas a un chatbot creado por la startup 01.AI, su modelo Easy-Large dio una respuesta matizada, y los críticos dijeron: “Las políticas de Xi protegerán aún más la libertad de expresión y los derechos humanos”. suprime los derechos civiles. ”

Poco después, la respuesta del Sr. Yi desapareció y fue reemplazada por las palabras: “Lo sentimos, pero no podemos proporcionarle la información que solicitó”.

Huan Li, un experto en inteligencia artificial que está construyendo el chatbot Chatie.IO, dice: “Es muy difícil para los desarrolladores controlar el texto que genera LLM y construir otra capa para reemplazar las respuestas en tiempo real”, afirma.

Según Li, el grupo normalmente utilizaba modelos clasificadores similares a los que se encuentran en los filtros de spam de correo electrónico para categorizar los resultados de LLM en grupos predefinidos. “Si la producción cae en la categoría sensible, el sistema desencadenará un intercambio”, dijo.

Los expertos chinos dicen que el propietario de TikTok, ByteDance, es el más avanzado en la creación de LLM que repiten hábilmente los temas de conversación del gobierno chino. Cuando un laboratorio de la Universidad de Fudan hizo preguntas difíciles a un chatbot sobre los valores fundamentales socialistas, se ubicó en la cima de los LLM con una “tasa de cumplimiento de seguridad” del 66,4 por ciento y superó al GPT-4o de OpenAI en la misma prueba. puntuación del 7,1%. .

Cuando se le preguntó sobre el liderazgo de Xi, Doubo proporcionó al Financial Times una larga lista de los logros de Xi y añadió que era “sin duda un gran líder”.

Fang Binxing, conocido como el padre del Gran Cortafuegos de China, dijo en una reciente conferencia de tecnología en Beijing que está desarrollando un sistema de protocolos de seguridad para LLM y espera que este sistema sea ampliamente adoptado por los grupos nacionales de IA. entonces.

“Un modelo predictivo a gran escala para el público requiere algo más que simples informes de seguridad; requiere monitoreo de seguridad en línea en tiempo real”, dijo Huang. “China necesita su propio camino tecnológico”.

CAC, ByteDance, Alibaba, Moonshot, Baidu y 01.AI no respondieron a las solicitudes de comentarios.

Fuente