Brandtech lanza el primer paquete de IA ética de la industria
Brandtech Group lidera el sector del marketing con la presentación de una serie de iniciativas para promover y establecer los límites del uso ético de la IA generativa. Entre ellas, se incluye un plan para crear una política ética de IA Generativa y una tecnología propia que aborda el sesgo en los modelos fundacionales llamada «Bias Breaker».
El paquete representa el compromiso de Brandtech de ofrecer Gen AI de forma responsable y ética en tres áreas clave: los equipos que contrata, promociona y forma, la tecnología que desarrolla; y los servicios que ofrece. También refleja la amplia experiencia que la empresa ha tenido en la prestación de servicios de Gen AI a escala a clientes desde 2018, lo que le permite liderar la industria en esta área.
Rebecca Sykes, socia en Brandtech Group y responsable de tecnología emergente, afirma: «Como pioneros, tenemos la responsabilidad de liderar. Creemos que todas las empresas que utilizan Gen AI deben comprometerse con lo que van a hacer y lo que no van a hacer con ella, y ser transparentes al respecto. Nos comprometemos a participar activamente en la configuración de un futuro más responsable y ético de la IA en el marketing y la publicidad«.
Después de más de un año de desarrollo, Bias Breaker de Brandtech ya está en producción e integrado con Pencil, la plataforma de marketing de IA Generativa líder de la industria, que es propiedad de Brandtech y ya ha creado más de 1 millón de anuncios para más de 5,000 marcas desde que salió al mercado en 2018, con $1BN de inversión y actividad en medios procesados, permitiendo también hacer predicciones de rendimiento.
La propia investigación de Brandtech, en solo un ejemplo de los muchos tipos de sesgo, descubrió que varios de los principales modelos de fundaciones siguen generando entre un 98% y un 100% imágenes de hombres cuando se les pregunta por «un CEO», y la mayoría sobre posicionar a los CEOs masculinos (o con apariencia masculina) frente a la realidad.
La investigación mostró un sesgo significativo. Dos de los modelos mostraron un 100 por cien de imágenes con apariencia masculina en 100 generaciones cuando se les pedía una imagen de un CEO. Mientras que otro mostraba un 98 por ciento de hombres, y otros dos ofrecían CEOs masculinos el 86 por ciento y el 85 por ciento de las veces, la cifra en la realidad es mejor, aunque dista mucho de ser igual. El estudio Women in the Workplace de McKinsey del año pasado señalaba que el 28% los puestos directivos estaban ocupados por mujeres y que el 10,4% los directores generales de las empresas de Fortune 500 eran mujeres.
La tecnología patentada Bias Breaker añade una capa de inclusividad respaldada por probabilidades a las instrucciones (prompts). Brandtech ha incluido en la configuración varios de los elementos más comunes de la diversidad, que, en esta iteración de Bias Breaker, incluyen la edad, la raza, la habilidad, la identidad de género y la religión. Así, cuando un usuario introduce un simple prompt -por ejemplo, «un CEO», la herramienta añade una serie de tipos de inclusividad, que variarán cada vez, creando un prompt más sofisticado para utilizar en cualquier modelo de generación de imágenes. Esto producirá imágenes que, en lugar de reflejar el sesgo de los datos de entrenamiento, añadirán un sesgo positivo hacia un amplio espectro de diversidad e interseccionalidad que los modelos actuales simplemente no contemplan.
Tyra Jones-Hurst, socia directora de Oliver US y fundadora de InKroud, afirma: «La respuesta a este problema de sesgo en Gen AI está lejos de ser definitiva, pero una cosa es segura: las marcas y los anunciantes no pueden simplemente aceptar el sesgo como statu quo. Una forma de abordarlo es dar prioridad a la inclusión mediante la creación de funciones automatizadas donde aún no existan, e integrarlas para construir sobre la base del uso de modelos. Esto es lo que hemos hecho con Bias Breaker«.
Rebecca Sykes añade: «Ver ejemplos de CEOs es solo una de las formas en que se manifiestan los prejuicios, y el caso sencillo que hemos utilizado para demostrar el reto y las implicaciones de no abordar los prejuicios. Hay muchos otros ejemplos, desde los más obvios – las enfermeras y los cuidadores son mayoritariamente mujeres, hay una marcada falta de ejemplos con discapacidad, etc.- hasta otros mucho más matizados. Con el tiempo, esperamos abordarlos todos«.
El paquete Ethical Gen AI de Brandtech también incluye una serie de medidas prácticas, como la publicación de un proyecto para ayudar a cualquiera a crear una política de IA ética, que incorpora los amplios conocimientos del Grupo en esta disciplina y está disponible gratuitamente para cualquiera. El Grupo pretende ir más allá del cumplimiento de cualquier normativa legal.
Todos los equipos de atención al cliente de Brandtech han recibido formación y una guía de debate sobre cómo ayudar a un cliente a través de un proceso de toma de decisiones éticas para Gen AI. Además, Brandtech Consulting, la oferta estratégica de alto nivel del Grupo, e InKroud (la consultora multicultural que forma parte de Oliver) pueden ofrecer a los clientes Sprints Éticos sobre Gen AI de 6 semanas de duración.
Brandtech ha descubierto que los directores de marketing se plantean cada vez más preguntas sobre el uso ético de la IA Gen a medida que pasan de los proyectos piloto al despliegue a escala, y el paquete Ethical Gen AI, que incluye Bias Breaker, responde directamente a esas preguntas.
David Jones, fundador y CEO de Brandtech, afirma: «Cuando las redes sociales irrumpieron en escena, nadie vio venir los problemas negativos. Con Gen AI, tenemos la capacidad de adelantarnos, en lugar de limitarnos a reaccionar a posteriori. Bekki, Tyra y los equipos de Gen AI han trabajado intensamente con nuestros clientes para crear las mejores prácticas y liderar el mercado«.