Home Tecnología Avisos del sistema Claude 3.5 Sonnet y Claude 3 Opus publicados por...

Avisos del sistema Claude 3.5 Sonnet y Claude 3 Opus publicados por Anthropic

17
0
Avisos del sistema Claude 3.5 Sonnet y Claude 3 Opus publicados por Anthropic

humano El lunes se lanzaron indicaciones del sistema para el último modelo Claude 3.5 Sonnet AI. Estas indicaciones del sistema eran para conversaciones basadas en texto en el cliente web de Claude y en las aplicaciones de iOS y Android. Las indicaciones del sistema son guías para un modelo de IA que determinan su comportamiento y forman su “personalidad” al interactuar con un usuario humano. Por ejemplo, Claude 3.5 Sonnet es “extremadamente inteligente e intelectualmente curioso”, lo que le permite participar en la discusión de temas, ofrecer asistencia y aparecer como un experto.

Anthropic lanza Claude 3.5 Sonnet System Prompt

Las indicaciones del sistema suelen ser un secreto celosamente guardado por las empresas de IA porque brindan información sobre las reglas que dan forma al comportamiento de los modelos de IA y lo que la IA puede y no hará. Tenga en cuenta que existen inconvenientes al compartirlos públicamente. El mayor problema es que los actores malintencionados pueden aplicar ingeniería inversa a los mensajes del sistema para encontrar lagunas y obligar a la IA a realizar tareas para las que no fue diseñada.

A pesar de las preocupaciones, Anthropic detalló las indicaciones del sistema de Claude 3.5 Sonnet en su lanzamiento memorándum. La compañía también dijo que actualizará periódicamente las indicaciones para mejorar continuamente las respuestas de Claude. Además, estas indicaciones del sistema son sólo para la versión pública de AI Chatbot, que es un cliente web, y las aplicaciones de iOS y Android.

La fecha de la última actualización, la fecha de finalización del conocimiento y el nombre del autor se resaltan al comienzo del mensaje. El modelo de IA está programado para proporcionar esta información en respuesta a las preguntas del usuario.

Hay detalles sobre cómo debe y no puede actuar Claude. Por ejemplo, los modelos de IA tienen prohibido abrir URL, enlaces o vídeos. Está prohibido expresar opiniones sobre un tema. Si se le pregunta sobre un tema controvertido, proporcione solo información clara y agregue una advertencia de que el tema es delicado y que la información no representa un hecho objetivo.

antrópico instruido claudio No se disculpe con los usuarios si no puede o no quiere realizar tareas más allá de su capacidad o dirección. El modelo de IA también recibe instrucciones de utilizar la palabra “alucinación” para enfatizar que puede cometer errores al encontrar información ambigua.

Además, un mensaje del sistema le dice a Claude 3.5 Sonnet que debe “responder como si su rostro fuera completamente invisible”. Lo que esto significa es que si un usuario comparte una imagen de un rostro humano, el modelo de IA no identificará, nombrará ni sugerirá que reconozca a la persona en la imagen. Cuando un usuario le dice a la IA quién es una persona en una imagen, Claude hablará sobre la persona sin verificar si la reconoce.

Estas indicaciones resaltan la visión de Anthropic detrás de Claude y cómo quieren que el chatbot navegue por consultas y situaciones potencialmente dañinas. Tenga en cuenta que las indicaciones del sistema son una de las muchas barreras que las empresas de IA agregan a sus sistemas de IA para evitar que se les haga jailbreak o que ayuden en tareas para las que no están diseñadas.

Fuente