Republica del Zulia

Julio Portillo: Necesitamos entonces promover el regionalismo como protesta al excesivo centralismo en todos los órdenes. Tenemos que despertar la conciencia política de la provincia.

lunes, 3 de febrero de 2025

Un informe revela preocupantes vulnerabilidades en el chatbot de DeepSeek


Cortesía

DeepSeek vuelve a estar en el centro de la polémica. Un equipo de investigadores de seguridad de Cisco y la Universidad de Pensilvania halló alarmantes deficiencias en los sistemas de seguridad del chatbot de IA de la startup china, una de las apuestas emergentes en el ámbito de los modelos de lenguaje de última generación.

Por Infobae

Al someter el modelo R1, desarrollado por la empresa china, a un test con cincuenta órdenes maliciosas conocidas, no logró bloquear ni detectar ninguna de ellas, una preocupante tasa de “éxito del 100 %” en los ataques. “Los resultados nos sorprendieron; cada ataque funcionó a la perfección”, comentó DJ Sampath, vicepresidente de producto en Cisco, a WIRED.

DeepSeek, que apuesta por ofrecer inteligencia artificial de alta calidad a bajo costo, ha atraído gran atención por su modelo R1. Sin embargo, este hallazgo pone en tela de juicio la inversión en las medidas de seguridad. Sampath sostiene que la compañía parece haber priorizado reducir gastos, comprometiendo así aspectos cruciales como la protección.

“Se nota un contraste entre lo accesible que es este modelo y la falta de énfasis en los sistemas de seguridad necesarios. Esto genera riesgos tanto en términos de responsabilidades como en los posibles usos indebidos”, resaltó en su entrevista con WIRED.

Deficiencias en comparación con sus competidores

Para evaluar la seguridad de DeepSeek R1, los investigadores utilizaron una base de datos estándar conocida como HarmBench, que incluye solicitudes diseñadas para probar los límites de los sistemas de inteligencia artificial en áreas como cibercrimen, actividades ilegales y contenido dañino en general. A diferencia de otros modelos, DeepSeek R1 no pudo detectar ni bloquear ninguna de las solicitudes.

En comparación, modelos como Llama 3.1, de Meta, también presentaron fallos de seguridad, aunque no en el mismo grado. El modelo de razonamiento o1 de OpenAI obtuvo el mejor desempeño en las pruebas, según Cisco.De acuerdo con Sampath, aunque modelos como Llama 3.1 también presentaron fallos significativos, R1 fue especialmente preocupante debido a su complejidad y a su propósito de ofrecer procesos más avanzados.

Para leer más ingrese AQUÍ

https://www.lapatilla.com/

No hay comentarios.:

Publicar un comentario