Inaugurando la decimotercera edición del ciclo, ESET, compañía líder en detección proactiva de amenazas, presentó la edición 2023 del ESET Security Days en Ecuador. Este año se realizaron tres eventos, en Quito, Guayaquil y Cuenca.
El ESET Security Day es un evento que se realiza en diferentes países de Latinoamérica hace ya 13 años, con el objetivo de acercarle a las empresas participantes los desafíos más importantes de ciberseguridad y la información necesaria para afrontarlos, y así resguardar y potenciar sus negocios. El ciclo ha llegado a más de 22 mil personas, en 15 países y 21 ciudades de toda la región.
- Hey: Gracias por darte el tiempo de leer este artículo. No olvides suscribirte a nuestro canal de YouTube.
Esta edición contó con la participación de Mario Micucci, Security Researcher de ESET Latinoamérica, quien estuvo a cargo de la presentación “Desmitificando la Inteligencia Artificial en ciberseguridad”.
Mario Micucci se desempeña actualmente como Security Researcher en ESET Latinoamérica, compañía dedicada al desarrollo, investigación y comercialización de soluciones de protección antivirus y seguridad informática. Previo a su ingreso a ESET Latinoamérica, adquirió experiencia como DevSecOps en la Secretaría de Innovación Publica de la Nación Argentina, incorporando la seguridad al ciclo de vida de desarrollo de software.
En República Tecno conversamos con Mario sobre los riesgos de ciberseguridad relacionados con la Inteligencia Artificial.
¿La Inteligencia Artificial representa riesgos de ciberseguridad? ¿Es confiable?
Sí, la inteligencia artificial (IA) puede representar riesgos de ciberseguridad, al igual que cualquier otra tecnología. La IA, y sobre todo el ML que es lo que tiene vigencia estos días, está diseñada para aprender y tomar decisiones basadas en grandes cantidades de datos, lo que la hace vulnerable a ataques cibernéticos si no se implementan medidas de seguridad adecuadas. Algunos de los riesgos de ciberseguridad asociados con la IA incluyen:
- Vulnerabilidades en los algoritmos: Los algoritmos de IA pueden contener fallas o debilidades que podrían ser explotadas por atacantes para manipular o engañar al sistema.
- Datos de entrenamiento comprometidos: La calidad y la integridad de los datos utilizados para entrenar los modelos de IA son fundamentales. Si están comprometidos o manipulados, el modelo puede generar resultados incorrectos o estar sesgado.
- Adversarios que aprovechan la IA: Los atacantes pueden utilizar técnicas de IA para mejorar sus ataques. Por ejemplo, podrían utilizar algoritmos de aprendizaje automático para desarrollar malware más sofisticado o para automatizar ataques de ingeniería social.
- Modelos de IA engañados: Los modelos de IA pueden ser engañados a través de técnicas como el envenenamiento de datos, donde se introducen datos maliciosos en el conjunto de entrenamiento para manipular el comportamiento del modelo.
En cuanto a la confiabilidad de la IA, es importante tener en cuenta que depende de varios factores, como la calidad de los datos utilizados, la precisión del algoritmo y la idoneidad de la implementación. Si se utiliza y se implementa correctamente, la IA puede ser confiable en muchos casos y puede ofrecer beneficios significativos en diversos campos.
Sin embargo, es fundamental tener en cuenta las limitaciones y el potencial de riesgo de la IA. Se requiere una supervisión adecuada, pruebas rigurosas y una evaluación constante para garantizar que los sistemas de IA sean confiables y seguros. Además, es necesario desarrollar y aplicar regulaciones y estándares de seguridad apropiados para mitigar los riesgos asociados con la IA y proteger la privacidad y la seguridad de los usuarios.
¿Qué tan reales son los riesgos de ciberseguridad de la Inteligencia Artificial comparados con riesgos de ‘scams’ o estafas relacionadas con supuestas inteligencias artificiales?
Tanto los riesgos de ciberseguridad asociados con la inteligencia artificial (IA) son riesgos reales, pero difieren en ciertos aspectos.
En cuanto a los riesgos de ciberseguridad de la IA, como mencionamos anteriormente, existen amenazas significativas que pueden surgir debido a la implementación incorrecta o insegura de sistemas de IA. Estos riesgos pueden incluir la manipulación de algoritmos, el compromiso de datos de entrenamiento, el uso malintencionado de técnicas de IA por parte de adversarios, entre otros. Estos riesgos pueden tener consecuencias importantes, como la violación de la privacidad, la propagación de información falsa o la interrupción de sistemas críticos.
Por otro lado, las estafas relacionadas con supuestas IA se centran en engañar a las personas para que crean que están interactuando con una IA inteligente, cuando en realidad están siendo manipuladas por humanos o programas automatizados. Estas estafas pueden presentarse en forma de chatbots o asistentes virtuales que intentan obtener información personal o financiera de los usuarios, o prometen resultados falsos o poco realistas basados en capacidades de IA.
Si bien estas estafas pueden ser perjudiciales y afectar la confianza en la tecnología de IA, en general no representan el mismo nivel de riesgo que las amenazas de ciberseguridad asociadas con la implementación de la IA en sistemas reales. Sin embargo, es importante tener precaución y estar consciente de las estafas que pueden aprovecharse de la percepción popular sobre la IA.
En resumen, los riesgos de ciberseguridad de la IA pueden tener consecuencias significativas y deben abordarse adecuadamente para garantizar la confiabilidad y seguridad de los sistemas. Mientras que las estafas relacionadas con supuestas IA son un riesgo real, pero generalmente tienen un impacto más limitado en comparación con los riesgos de ciberseguridad más amplios asociados con la implementación de la IA en sistemas críticos.
¿Qué recomendaciones de seguridad puede darnos para estar prevenidos ante posibles estafas?
Algunas recomendaciones de seguridad que podemos seguir para estar prevenidos ante posibles estafas son:
- Mantener la precaución: Mantén una actitud cautelosa y crítica cuando te encuentres con ofertas o propuestas que parezcan demasiado buenas para ser verdad. Si algo suena sospechoso o poco realista, es probable que sea una estafa.
- Verificar la fuente: Antes de proporcionar información personal o financiera, verifica la legitimidad de la fuente. Investiga y confirma la identidad de la empresa, organización o individuo con el que estás interactuando. Busca información en sitios web oficiales y verifica su reputación.
- Utilizar contraseñas seguras: Crea contraseñas fuertes y únicas para todas tus cuentas. Utiliza una combinación de letras mayúsculas y minúsculas, números y símbolos. Evita el uso de contraseñas obvias o fáciles de adivinar, como nombres o fechas de nacimiento.
- Mantener los dispositivos actualizados: Mantén tus dispositivos y aplicaciones actualizados con las últimas versiones de software y parches de seguridad. Las actualizaciones suelen incluir correcciones para vulnerabilidades conocidas, lo que ayuda a proteger tus dispositivos contra ataques.
- Ser cauteloso con los enlaces y archivos adjuntos: Ten cuidado al hacer clic en enlaces desconocidos o descargar archivos adjuntos de fuentes no confiables. Los enlaces maliciosos y los archivos adjuntos pueden contener malware o dirigirte a sitios web fraudulentos.
- No revelar información personal o financiera confidencial: Evita proporcionar información personal o financiera confidencial, como números de tarjetas de crédito, contraseñas o números de seguridad social, a menos que estés seguro de la legitimidad y seguridad de la entidad con la que estás interactuando.
- Utilizar soluciones de seguridad confiables: Instala y utiliza programas antivirus y antimalware en tus dispositivos. Estas soluciones pueden ayudar a detectar y bloquear amenazas de seguridad, como malware y phishing.
- Educar y capacitarnos: Mantente informado sobre las últimas tendencias y técnicas de estafas. Aprende sobre los diferentes tipos de estafas y cómo identificarlas. Existen recursos en línea y organizaciones dedicadas a la educación sobre seguridad cibernética que pueden proporcionar información útil.
Debemos recordar que la educación y la precaución son fundamentales para protegernos contra las estafas. Siempre confía en tu instinto y si sospechas de algo, es mejor ser cauteloso y buscar asesoramiento adicional antes de proporcionar información personal o realizar transacciones.
¿Hay algún uso que le podamos dar a la Inteligencia Artificial para proteger nuestros computadores?
Sí, la inteligencia artificial (IA) puede ser utilizada para proteger los computadores y fortalecer la seguridad cibernética en varias formas. A continuación algunos ejemplos de cómo se puede aprovechar la IA para proteger tus sistemas:
- Detección de amenazas: La IA puede utilizarse para analizar patrones de comportamiento y datos en tiempo real con el fin de identificar y detectar actividades sospechosas o maliciosas. Algoritmos de aprendizaje automático pueden ser entrenados para reconocer y clasificar diferentes tipos de amenazas, como malware, ataques de phishing o intrusiones en la red.
- Análisis de datos de seguridad: La IA puede ayudar en el análisis de grandes volúmenes de datos relacionados con la seguridad cibernética. Esto puede incluir el análisis de registros de eventos, registros de acceso, detección de anomalías y correlación de datos para identificar patrones y señales de alerta temprana.
- Mejora de la detección y respuesta a incidentes: Mediante el uso de algoritmos de IA, es posible desarrollar sistemas de detección y respuesta automática a incidentes de seguridad. Estos sistemas pueden ayudar a identificar rápidamente actividades maliciosas, mitigar amenazas en tiempo real y responder de manera automatizada para contener y neutralizar los ataques.
- Autenticación y control de acceso: La IA puede ser utilizada para mejorar los sistemas de autenticación y control de acceso. Por ejemplo, se pueden implementar sistemas biométricos basados en IA, como reconocimiento facial o de voz, para garantizar una autenticación más segura y precisa.
- Predicción de vulnerabilidades: Los algoritmos de IA pueden analizar datos históricos y patrones de seguridad para predecir posibles vulnerabilidades y brechas de seguridad. Esto permite a los administradores de sistemas anticipar y tomar medidas preventivas para proteger sus computadores y redes.
- Reducción de falsos positivos: La IA puede ayudar a reducir los falsos positivos en la detección de amenazas, lo que permite un filtrado más eficiente y preciso de las alertas de seguridad. Esto ayuda a optimizar los recursos y a enfocarse en las amenazas reales y significativas.
Estos son solo algunos ejemplos de cómo la IA puede contribuir a proteger los computadores y fortalecer la seguridad cibernética. Sin embargo, es importante tener en cuenta que la implementación adecuada de estas soluciones y la continua supervisión y actualización de los sistemas son fundamentales para garantizar su efectividad y seguridad.
¿Te interesa conocer más sobre videojuegos y lanzamientos futuros? Visita República Tecno, nuestro blog de tecnología y entretenimiento para mantenerte al tanto de las últimas novedades del mundo gamer. ¡Y no olvides suscribirte a nuestro canal de YouTube!