La inteligencia artificial ha avanzado de manera descomunal durante el último año 2023 y el nacimiento de aplicaciones como Chat GPT o Bing de Microsoft está despertando el interés de muchos usuarios debido a las infinitas posibilidades de estas herramientas. Sin embargo, el FBI informa de que la IA también está contribuyendo al desarrollo de malware por parte de hackers, así que no es oro todo lo que reluce.
En plena intervención ante los medios de comunicación, un miembro del FBI ha señalado que las plataformas gratuitas y personalizables de código abierto están haciéndose famosa entre los ciberdelincuentes a la hora de realizar ataques maliciosos, ya sea al propagarlo, hacer pishing o ejecutar otras estafas.
La IA puede ser peligrosa
Seguro que has utilizado alguna vez una IA para hacer cualquier cosa. No hace falta que sea Chat GPT ni nada por el estilo, ya que tu teléfono también integra este tipo de herramientas a través de, por ejemplo, el asistente de voz o el optimizador de carga nocturna que aprende tus ciclos de carga. Si bien es cierto que ChatGPT, Bing y la nueva IA de Google van más allá, puesto que son útiles para cualquier clase de tarea: hacer la lista de la compra según un presupuesto, organizar un viaje e incluso crear contenido.
Esto abre un mundo de posibilidades al usuario, pero, en malas manos, son aplicaciones que pueden resultar perjudiciales. Este es el caso de los hackers que se están aprovechando de ellas para generar malware e incluso desplegarlo según indica el FBI, así como otras organizaciones, las cuales han mostrado su disconformidad con esta forma de usar estas plataformas, proporcionando la información necesaria y facilitando el desarrollo de estos ataques maliciosos para personas que, antes, ni siquiera conocían sobre el tema.
Asimismo, la llegada de herramientas como Chat GPT-4 ha provocado un aumento notable del número de inteligencias artificiales creadas por hackers bajo el objetivo de atacar a los usuarios en Internet. Ahora, hay muchas páginas web falsas que son extremadamente convincentes e incluso logran acceder a la información personal y datos bancarios de la persona.
Las empresas toman cartas en el asunto
Fue a inicios del presente año 2023 cuando Meta afirmó que su nueva IA de generación de voz, conocida como Voicebox, no estará disponible hasta estar seguro de las precauciones indicadas para no ocasiones grandes daños en la sociedad. Una iniciativa a la que van a verse sometidas el resto de las empresas de este sector. Pese a que hoy en día algunas buscan proteger a los usuarios, la velocidad a la que se están desarrollando medidas de seguridad en comparación con la rapidez a la que evolucionan estas aplicaciones de inteligencia artificial está preocupando mucho a la comunidad.
Justo la semana pasada, la mismísima Casa Blanca anunció lo que han denominado ‘compromiso voluntario’ de las grandes compañías que están trabajando con IA, como Amazon, Google, Microsoft, Meta y OpenAI, entre otras, con el objetivo de garantizar una experiencia segura. Por el momento, está por ver cómo avanza la situación, pero ya ha quedado claro que el potencial que esconden puede ser utilizado en su contra.