Expertos en IA aconsejan a startups avanzar con cautela para evitar riesgos éticos

Sin embargo, tres defensores de la seguridad en IA destacaron ante los fundadores de startups que ir demasiado rápido puede causar problemas éticos a largo plazo.

“Estamos en un punto crítico donde se están destinando muchos recursos a este campo”, dijo Sarah Myers West, codirectora ejecutiva del AI Now Institute, en TechCrunch Disrupt 2024. “Me preocupa que haya tanta prisa por lanzar productos al mundo, sin reflexionar sobre la cuestión fundamental de qué tipo de mundo queremos y cómo la tecnología contribuye a ello o lo perjudica”.

La discusión llega en un momento en que la seguridad en IA es un tema urgente. En octubre, la familia de un niño que se suicidó demandó a la empresa de chatbots Character.AI por su presunto papel en la tragedia. “Esta historia muestra las graves consecuencias de la rápida adopción de tecnologías basadas en IA”, dijo Myers West.

Además de estos casos críticos, los riesgos de la IA incluyen desinformación e infracción de derechos de autor. Jingna Zhang, fundadora de la plataforma social Cara, destacó la necesidad de límites claros para proteger a los creadores. Zhang criticó la política de Meta, que permite usar las publicaciones públicas de los usuarios para entrenar su IA, algo que afecta a los artistas que deben compartir su trabajo en línea para ganar seguidores y clientes, pero ahora ven cómo sus obras podrían ser usadas para entrenar modelos que amenazan sus empleos. “Si quieren usar nuestro trabajo, deberían licenciarlo”, enfatizó Zhang.

Aleksandra Pedraszewska, encargada de seguridad en ElevenLabs, una empresa de clonación de voz basada en IA, subrayó la importancia de identificar comportamientos indeseados y consecuencias no intencionadas en los lanzamientos de IA generativa. “ElevenLabs tiene 33 millones de usuarios, una comunidad que se ve afectada por cualquier cambio en el producto”, señaló.

Para garantizar la seguridad en las plataformas, Pedraszewska abogó por un enfoque regulador equilibrado. “No podemos movernos entre extremos: oponerse totalmente a la IA o permitir cero regulación. Necesitamos encontrar un punto medio en la regulación”, concluyó.

close
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.