Microsoft se deslinda de polémicas por derechos de autor de Sam Altman
Aunque ambas empresas utilizan una misma base de GPT, las versiones son distintas por cuestiones de seguridad de datos, afirma la tecnológica.
Sam Altman es la cara de la nueva generación de empresarios tecnológicos. Al igual que Mark Zuckerberg lo hizo en su momento, las presentaciones del director ejecutivo de OpenAI generan revuelo, nadie se quiere perder lo que tiene por decir. Pero de la misma forma en que el CEO de Meta se envolvió en polémicas, el gurú de la IA generativa no puede quitarse de encima los problemas de derechos de autor, ni siquiera con un socio como Microsoft. Desde que inició el auge de la IA generativa a finales de 2022, las críticas hacia esta tecnología no se hicieron esperar, mientras que escritores, comediantes, organizaciones de noticias e incluso grandes medios, como The New York Times, entre otros, decidieron demandar a la startup, lo cual también ha impactado en su principal inversor y socio tecnológico: Microsoft. ¿Por qué Microsoft y OpenAI no usan la misma IA? En junio pasado, el Centro de Periodismo de Investigación (CIR, por su siglas en inglés) presentó una demanda en contra de OpenAI y Microsoft por supuestamente usar su contenido sin permiso en un “reproche a la Inteligencia Artificial y sus prácticas explotadoras”.
Monika Bauerlein, directora ejecutiva del CIR, dijo a través de un comunicado, que ambas empresas recopilan sus historias para hacer su producto más poderoso, “pero nunca pideron permiso ni ofrecieron compensación (...) este comportamiento oportunista no solo es injusto, sino que también viola los derechos de autor”. Sin embargo, ambas empresas no utilizan la misma tecnología. Sarah Bird, directora de productos de la Oficina de IA Responsable de Microsoft afirma que las dos empresas tienen una copia del modelo y, en el caso de Microsoft, lo mantiene completamente ligado a su ecosistema, por lo que la empresa tiene la capacidad de ejecutar sus propias medidas de seguridad y privacidad. “Cuando utilizas un producto de Microsoft, utilizas enteramente nuestra plataforma, mientras que OpenAI tiene su propia versión”, explica Bird sobre los filtros que tiene la información para respetar derechos de autor. Natasha Crampton, vicepresidenta y directora de la Oficina de IA Responsable de Microsoft, aporta diciendo que si bien Microsoft ha trabajado con OpenAI para compartir las mejores prácticas en términos de seguridad, cuando la IA se implementa en productos de Microsoft tiene capas adicionales de seguridad que corresponden a los estándares y valores de la empresa. Cabe recordar que en septiembre del año pasado, Microsoft dio a conocer que asumirá la responsabilidad legal si sus usuarios son demandados por alguna infracción de derechos de autor al utilizar su servicio AI Copilot. De acuerdo con el director legal de la empresa, Brad Smith, la compañía se hará cargo de cualquier riesgo legal que tenga una compañía al hacer uso de su sistema en términos de cómo protegen obras que no sean de la autoría de la tecnología. Esta iniciativa se llama Copilot Copyright Commitment y forma parte de una serie de políticas y compromisos generales que está asumiendo Microsoft con sus clientes empresariales de los sistemas de Inteligencia Artificial. “Si un tercero demanda a un cliente comercial por infracción de derechos de autor por el uso de Copilot, o la producción que generan, defenderemos al cliente y pagaremos el monto de cualquier sentencia o acuerdo adverso que resulte de la demanda”, puntualiza la empresa. Sin embargo, es importante resaltar que también tiene algunas condiciones para poder asumir la responsabilidad del contenido, como el hecho de que el cliente “haya utilizado las barreras de seguridad y filtros de contenido”, menciona Smith. La empresa destaca tres razones principales para esta postura en torno a los derechos de autor. La primera es que quiere respaldar la confianza de sus clientes al utilizar sus servicios de Inteligencia Artificial. La segunda es que comprende la preocupación en torno a los derechos de autor que ha surgido tras el auge de la IA generativa y la tercera explicación es poner a prueba las barreras que ha construido para evitar que esta tecnología viole el material protegido. En este sentido, Smith resalta que con este tipo de proyectos buscan manejar la incertidumbre en torno a las legislaciones autorales y la IA generativa, pues consideran que los artistas deben mantener la propiedad de sus obras, además de obtener una ganancia por ellas. ]]>
¿Cúal de identifica?