Home Cultura Musical Taylor Swift amenazó a Microsoft con acciones legales por su racista Chatbot

Taylor Swift amenazó a Microsoft con acciones legales por su racista Chatbot

104
0

Los abogados de Taylor Swift amenazaron con demandar a Microsoft por el chatbot Tay de la compañía. 

Brad Smith, revela que los abogados de Taylor Swift no estaban contentos con que la compañía usará el nombre Tay para su chatbot. El chatbot de Microsoft fue originalmente diseñado para mantener conversaciones con adolescentes a través de las redes sociales, pero los usuarios de Twitter lo convirtieron en un chatbot racista en menos de un día.

Smith revisó sus correos electrónicos durante unas vacaciones y descubrió que el equipo de Taylor Swift estaba exigiendo un cambio de nombre para el chatbot Tay. “Acababa de llegar un correo electrónico de un abogado de Beverly Hills que se presentó diciéndome: ‘Representamos a Taylor Swift, en cuyo nombre esto se dirige a usted”

Los abogados argumentaron que “el uso del nombre Tay creó un falso y asociación engañosa entre el cantante popular y nuestro chatbot, y que violó las leyes federales y estatales “, dice Smith en Tools and Weapons , un nuevo libro sobre cómo la tecnología nos está empoderando y amenazando.

No está claro exactamente cuándo los abogados de Taylor Swift contactaron a Microsoft sobre el nombre de Tay, pero probablemente no estaban contentos con el tipo de basura misógina, racista y promotora de Hitler que publicaba en Twitter. 

Microsoft se disculpó rápidamente por el material ofensivo publicado por su robot de IA y desconectó a Tay después de menos de 24 horas.