Daniel Muñoz Vargas
Profesor de Estrategia en Santo Tomás Osorno
Subgerente de Negocios Digitales en Dimak
La inteligencia artificial (IA) está revolucionando nuestro día a día y el mundo
empresarial y educacional no es la excepción. A propósito de que en el Colegio
Saint George algunos estudiantes usaron IA para crear imágenes falsas de sus
compañeras, un acto que en su oportunidad sacudió a la comunidad educativa y
mostró las enormes brechas en nuestra legislación actual que todavía no sabe
cómo manejar estos escenarios, es conveniente retomar el tema y analizar.
En nuestras clases de planificación estratégica en Santo Tomás, por ejemplo,
aprovechamos estos incidentes para reflexionar sobre lo vital que es estar un paso
adelante en cuanto a las implicancias éticas y legales que la IA trae consigo. Los
«deepfakes», esos videos o imágenes alterados hasta parecer reales, están
poniendo en jaque la reputación de individuos y empresas, y nos demuestran que
la ley va varios pasos atrás respecto a la tecnología.
Según un estudio de McKinsey del 2024, el 70% de las empresas dice que sin IA
no podrían mantenerse competitivas. Este dato nos pone sobre la mesa la
urgencia de integrar un enfoque ético en la estrategia empresarial y de riesgos, no
solo para impulsar la innovación, sino para proteger lo que hemos construido
hasta ahora.
En la planificación estratégica moderna, la ética de la IA no es un «extra», sino que
es fundamental. Es crucial que preparemos a nuestros futuros líderes con las
herramientas adecuadas para enfrentar estos desafíos éticos y estratégicos que la
tecnología nos presenta cada día.
Ahora, piensen en esto: ¿hasta qué punto las fotos o videos serán consideradas
fiables en un juicio por su fácil alteración?, ¿cómo deberían las empresas y las
organizaciones prepararse para esta nueva era digital?, ¿Cómo lideramos el
camino hacia regulaciones que garanticen un uso ético y responsable de la IA,
manteniendo la transparencia y la justicia en todas nuestras operaciones?
Muchas preguntas, de las cuales aún no conocemos sus respuestas.