Ven diversidad de riesgos

Tecnología en la seguridad, tema que debe ser vigilado, según ChatGPT

Identificar a criminales a traves del reconocimiento de rostros, uno de los usos; sin embargo, las llamadas deepfake tambipen representan un peligro para los usuarios

El Papa en imagen falsa con una chamarra
El Papa en imagen falsa con una chamarraFoto: Especial
Por:

¿Qué es lo que debe saberse de la Inteligencia Artificial sobre el tema de seguridad?, se le preguntó a un ChatGPT y respondió lo siguiente:

“A medida que pasan los meses la Inteligencia Artificial se ha ido consolidando a nivel mundial en diferentes sectores, siendo el de la tecnología y la seguridad en el que tal vez más se ocupe, debido a las posibilidades de prevención de diversos delitos como fraude, extorsión, clonación de audios o hasta robo de identidad o información a empresas.

“Una de las aplicaciones de la IA en el mundo es principalmente en el reconocimiento de rostros, esto para detectar a criminales o posibles comportamientos sospechosos, que lleven a las autoridades a adelantarse a un posible acto criminal.

“En algunos países de Europa contratan a empresas que ya aplican esta tecnología para reforzar sus sistemas bancarios y de datos, pues a través de una infinidad de algoritmos instantáneos, pueden detectar posibles intromisiones a las redes o bases de datos que extraigan algún tipo de información o por temas económicos, como transacciones virtuales”.

Donald Trump, en aparente arresto, en Estados Unidos
Donald Trump, en aparente arresto, en Estados UnidosFoto: Especial

El tema de la seguridad o ciberseguridad en tiempos de la IA es algo que inquieta a los usuarios, pues se preguntan si es correcto dejar en manos de una tecnología sus datos más personales.

Pero también es un tema que va de la mano de la ética, en el sentido de que podemos pedirle a un programa de ChatGPT que elabore un video con la imagen de nuestro vecino o de nuestro artista favorito en escenas que nunca los veríamos normalmente.

Hugo Werner, vicepresidente regional de Akamai Technologies para LATAM, asegura que esta capacidad de manipulación de medios tiene implicaciones profundas en la seguridad digital y requiere una respuesta eficaz de los expertos en ciberseguridad.

“El reciente caso de la imagen del pentágono prendiendo fuego que se volvió viral en Internet e influenció la caída de las acciones en la bolsa de valores de Estados Unidos, o las fotos falsas del papa Francisco vistiendo una gran chamarra blanca, son ejemplos evidentes del impacto de esta técnica. En ese sentido, es necesario mirar con atención el avance de la Inteligencia Artificial en lo que respecta a la ciberseguridad, destaca.

.
.Gráfico: La Razón de México

El término deepfake viene desde 2017, pero poca gente sabe qué significa, y caen víctimas de contenido que en su mayoría no son real, pero que ciberdelincuentes lo hacen parecer por verídico.

La suplantación de rostros facilita fraudes financieros, estafas financieras y hasta chantajes ya sea de forma personal o política, sin mencionar el acoso a mujeres y hasta la pornografía.

Volviendo a la consulta al ChatGPT, la IA puede analizar el comportamiento de usuarios y sistemas para identificar patrones anómalos que podrían indicar una amenaza, además de procesar grandes volúmenes de datos y eventos para identificar patrones de actividad sospechosa.

A pesar de que el campo de la IA es nuevo en México, los grupos criminales ya lo han utilizado, al menos, para temas de fraude de datos o de dinero.

Por ello, es fundamental que autoridades y los expertos en seguridad estén atentos a posibles formas en que la tecnología, incluida la Inteligencia Artificial, pueda ser utilizada con fines delictivos. Además, la regulación y la cooperación internacional son aspectos clave para abordar los desafíos actuales.