Para empresas como Google y Microsoft, la inteligencia fabricado es una gran parte de su futuro, ya que ofrece formas de mejorar los productos existentes y crear flujos de ingresos completamente nuevos. Sin confiscación, como lo revelan los informes financieros recientes, ambas compañías asimismo reconocen que la IA, especialmente la IA sesgada que toma malas decisiones, puede dañar potencialmente sus marcas y negocios.
Estas revelaciones, descubiertas por cableado, se realizó en los formularios 10-K de las empresas. Estos son documentos estandarizados que las empresas están legalmente obligadas a presentar cada año, brindando a los inversores una visión normal amplia de sus negocios y finanzas recientes. En el segmento titulado “factores de peligro”, tanto Microsoft como Alphabet, la empresa matriz de Google, adoptaron la IA por primera vez.
De Alfabetos 10-K, presentado la semana pasada:
“[N]Los nuevos productos y servicios, incluidos los que contienen o usan inteligencia fabricado y formación mecánico, pueden crear nuevos desafíos éticos, técnicos, legales y de otro tipo o exacerbarlos, lo que puede afectar negativamente a nuestras marcas y la demanda de nuestros productos y servicios, así como a nuestros ingresos y ganancias operativas. . “
Y del 10-K de Microsoft, presentado en agosto del año pasado:
Los algoritmos de IA pueden ser inexactos. Los conjuntos de datos pueden ser insuficientes o contener información sesgada. Las prácticas de datos inapropiadas o controvertidas por parte de Microsoft u otros pueden afectar la bienvenida de las soluciones de IA. Estas deficiencias pueden socavar las decisiones, predicciones o observación que producen y retrasan las aplicaciones de IA. nosotros por daños competitivos, responsabilidad admitido y daños a la marca o reputación. Algunos escenarios de IA presentan problemas éticos. Si habilitamos u ofrecemos soluciones de IA que son controvertidas adecuado a su impacto en los derechos humanos, la integridad, el empleo u otros o daños a la reputación”.
En normal, estas revelaciones no son muy sorprendentes. La idea del segmento de “factores de peligro” es ayudar informados a los inversionistas, pero asimismo mitigar futuras demandas que puedan inculpar a la dirección de ocultar problemas potenciales. Oportuno a esto, tienden a ser extremadamente amplios en su cometido y cubren incluso las formas más obvias en las que una empresa puede salir mal. Esto puede incluir problemas como “alguno hizo un producto mejor que nosotros y ahora no tenemos clientes” y “gastamos todo nuestro caudal, así que ahora no tenemos nadie”.
Pero como cableado ‘Como señala Tom Simonite, es un poco extraño que estas empresas solo mencionen a la IA como un autor potencial ahora. Luego de todo, entreambos han estado desarrollando productos de IA durante primaveras, desde la iniciativa de conducción autónoma de Google, que comenzó en 2009, hasta el abundante compromiso de Microsoft con plataformas de llamadas como Cortana. Esta tecnología ofrece un gran potencial para dañar las marcas registradas y, en algunos casos, ya lo ha hecho. ¿Recuerdas cuando el chatbot Tay de Microsoft se lanzó en Twitter y comenzó a difundir tonterías racistas en menos de un día? Primaveras más tarde, todavía se menciona regularmente como un ejemplo de falta de la IA.
Pero asimismo se podría argumentar que la conciencia pública sobre la inteligencia fabricado y sus posibles mercadería negativos ha crecido enormemente durante el postrero año. Escándalos como el trabajo secreto de Google con el Pentágono durante el Plan Maven, el software de gratitud facial sesgado de Amazon y la incompetencia algorítmica de Facebook con el escándalo de Cambridge Analytica han puesto de relieve el problema de la IA mal implementada. Curiosamente, a pesar de una exposición similar, ni Amazon ni Facebook mencionan el peligro de IA en sus últimos 10-Ks.)
Y Microsoft y Google están haciendo más que muchas empresas para mantenerse al tanto de este peligro. Microsoft, por ejemplo, argumenta que el software de gratitud facial debe estar regulado para proteger contra posibles daños, mientras que Google ha comenzado el tranquilo negocio de comprometerse con los tomadores de decisiones y académicos. sobre el control de la IA. Avisar a los inversores asimismo parece encajado.