fbpx

Italia prohíbe a CHATGPT: ¿por qué tomó la decisión y la considera una herramienta de “doble filo”?

El gobierno de Italia limitó el tratamiento de datos de usuarios italianos por OpenAI, al tiempo que decidió abrir una investigación hacia la compañía.

El último día de marzo, el organismo de regulación de datos italiano (Garante per la Protezione dei dati personali) ordenó la limitación temporal del procesamiento de datos de usuarios italianos por OpenAI, y por ende su popular herramienta ChatGPT.

La medida se relaciona con el inicio de una investigación para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo (GDPR).

La compañía Check Point Software Technologies Ltd apunta que “este suceso tiene origen en la reciente filtración de datos de la herramienta de inteligencia artificial detectada el pasado 20 de marzo”.

En esa fecha, se habrían expuesto las conversaciones de los usuarios junto con información privada como datos de facturación y tarjetas de crédito parciales de los suscriptores.

Según detalló el comunicado oficial del garante italiano, actualmente ChatGPT “no proporciona ninguna información a los usuarios, ni a los interesados cuyos datos fueron recopilados por OpenAI”.

Y agregó: “La ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento” y el incumplimiento de los artículos 5, 6, 8, 13 y 25 del GDPR.

Los peligros de la Inteligencia Artificial

Si bien por el momento actualmente sólo Italia puso en marcha esta ordenanza e investigación, dada la presunta base de incumplimiento del reglamento europeo para el tratamiento de datos, es posible que otros países o el propio organismo central de la Unión Europea anuncien medidas similares en los próximos días.

Paal Aaserudseter, ingeniero de seguridad de Check Point Software, mencionó que la materia de: inteligencia artificial, la ciberseguridad y las empresas pueden mantenerse seguras dentro de esta nueva era de innovación digital.

“El potencial del uso indebido de datos es, con mucho, una de mis mayores preocupaciones con respecto a ChatGPT“, resaltó Aaserudseter.

“El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido”, detalló.

La IA ya demostró su potencial para revolucionar campos como:

  • la atención médica
  • las finanzas
  • el transporte, entre muchos otros

Puede automatizar tareas tediosas, mejorar la eficiencia y proporcionar información que antes era imposible obtener, y ayuda a resolver problemas complejos y tomar mejores decisiones.

No obstante, es importante mantener expectativas realistas y no ver a este tipo de herramientas como una solución infalible para todos los problemas, al menos por el momento.

ChatGPT: ¿Puede superar la inteligencia humana?

“Actualmente la mayor parte de IA que usamos se agrupan dentro de la Inteligencia Estrecha o débil (ANI), lejos de la Súper Inteligencia (ASI) cuya inteligencia superaría las capacidades humanas”, comentó Aaserudseter.

Para mitigar los riesgos asociados con la IA avanzada, es importante que los investigadores y los legisladores trabajen juntos para garantizar que estas herramientas se desarrollen de manera segura y beneficiosa.

La inteligencia artificial puede ser tanto una herramienta para los atacantes como para los defensores. A medida que las tecnologías se vuelven más avanzadas, pueden ser usadas para crear ataques más sofisticados y difíciles de detectar.

Actualmente ChatGPT ya es utilizada para automatizar procesos e incluso crear campañas de phishing dirigidas o incluso lanzar ataques automatizados.

No obstante, en contraposición a estos hechos, actualmente la inteligencia artificial y el machine learning son dos de los grandes pilares que ayudan a la constante mejora de las capacidades de la ciberseguridad.

Algunos expertos incluso apuntan que la próxima generación de defensa se basará en gran medida en estas funcionalidades de la robótica.

El grado de complejidad y dispersión de los sistemas con los que trabajan las empresas actualmente hace que los medios tradicionales y manuales de vigilancia, supervisión y control de riesgos comiencen a ser insuficientes.

Información tomada de IPRO UP.

Leave a Reply

Your email address will not be published. Required fields are marked *

Close
en_USEnglish