Google está organizando una competencia global para desarrollar IA que beneficie a la humanidad

Algunos de los mayores obstáculos de la inteligencia artificial son evitar que dicho software desarrolle los mismos defectos y prejuicios inherentes que sus creadores humanos, y utilizar la IA para resolver problemas sociales en lugar de simplemente automatizar tareas. Google es ahora una de las organizaciones líderes en el mundo que desarrolla software de inteligencia artificial en la actualidad. lanza una competencia mundial para ayudar a estimular el desarrollo de aplicaciones e investigaciones que tengan efectos positivos en el campo y en la sociedad en general.

La competencia, llamada AI Impact Challenge, se anunció hoy en un evento llamado AI for Social Good, que se llevó a cabo en la oficina de la compañía en Sunnyvale, California, y es supervisada y administrada por la organización benéfica de la compañía, Google.org. Google lo posiciona como una forma de integrar organizaciones sin fines de lucro, universidades y otras organizaciones fuera del mundo empresarial y lucrativo de Silicon Valley en el desarrollo orientado al futuro de la investigación y las aplicaciones de IA. La compañía dice que distribuirá hasta $ 25 millones a varios beneficiarios para «ayudar a convertir las mejores ideas en acción». Como parte de la competencia, Google ofrecerá recursos en la nube para los proyectos, y es abre aplicaciones desde hoy. Los beneficiarios aprobados se anunciarán en la Conferencia de desarrolladores de Google I/O del próximo año.

Lo más importante para Google con esta iniciativa es que utiliza IA para resolver problemas en áreas como la ciencia ambiental, el cuidado de la salud y la conservación de la naturaleza. Google dice que la IA ya se está utilizando para determinar la ubicación de las ballenas al rastrear e identificar los sonidos de las ballenas, que luego se pueden usar para proteger contra amenazas ambientales y de vida silvestre. La compañía dice que la IA también se puede usar para predecir inundaciones y también para identificar áreas forestales que son particularmente sensibles a los incendios forestales.

Otra gran área para Google es eliminar los prejuicios en el software de inteligencia artificial que puede replicar los puntos muertos y los prejuicios en los humanos. Un ejemplo notable y reciente fue Google, que en enero reconoció que no podía encontrar una solución para arreglar su algoritmo de etiquetado de fotos que identificaba a las personas negras en las fotos como gorilas, originalmente un producto de una fuerza laboral mayoritariamente blanca y asiática que no podía predecir cómo su software de reconocimiento de imágenes puede cometer errores tan fundamentales. (La fuerza laboral de Google es solo 2.5 por ciento negra). En lugar de encontrar una solución, Google simplemente eliminó la capacidad de buscar ciertos primates en Google Photos. Es el tipo de problema, aquellos que Google dice que tiene problemas para predecir y necesitan ayuda para resolverlos, que la empresa espera que su competencia pueda intentar resolver.

La competencia, junto con el nuevo programa AI for Social Good de Google, sigue una promesa pública hecha a principios de junio de que la compañía nunca desarrollaría armas de IA y que su investigación y desarrollo de productos de IA estarían guiados por un conjunto de principios éticos. Como parte de estos principios, Google dijo que no trabajaría con proyectos de monitoreo de IA que violen «estándares internacionalmente aceptados» y que su investigación seguiría «principios ampliamente aceptados del derecho internacional y los derechos humanos». La compañía también dijo que su investigación de IA se centraría principalmente en proyectos que sean «socialmente beneficiosos».

En los últimos meses, muchos de los jugadores más importantes de la tecnología, incluido Google, ha luchado con la ética desarrollar tecnologías y productos que puedan ser utilizados por las fuerzas armadas o que puedan contribuir al desarrollo de estados de vigilancia en los Estados Unidos y en el extranjero. Muchas de estas técnicas, como el reconocimiento facial y el reconocimiento de imágenes, implican un uso sofisticado de la IA. Google, en particular, se ha visto envuelto en una controversia por su participación en una iniciativa de drones del Departamento de Defensa de EE. UU. llamada Proyecto Maven, y en sus planes secretos para lanzar un producto de búsqueda y noticias algorítmicas para el mercado chino.

Luego de una seria reacción interna, críticas externas y despidos, Google acordó retirarse de su trabajo en Project Maven luego de la ejecución de su contrato. Sin embargo, Google ha dicho que todavía está explorando activamente un producto para el mercado chino, a pesar de las preocupaciones de que podría usarse para monitorear a los ciudadanos chinos y vincular sus actividades fuera de línea con su comportamiento en línea. Google también ha dicho que todavía planea trabajar con el ejército, y su controvertido servicio Google Duplex, que usa IA para imitar a un humano y hacer llamadas en nombre de un usuario, comenzará a implementarse en los dispositivos Pixel el próximo mes.

Jeff Dean, jefe de la división Google Brain AI de la compañía e investigador principal, dice que AI Impact Challenge no es realmente una reacción a las recientes controversias de la compañía sobre el trabajo militar y relacionado con la vigilancia. – Esto ha estado sucediendo durante bastante tiempo. Hemos realizado un trabajo en el espacio de búsqueda que es socialmente beneficioso y no está directamente relacionado con aplicaciones comerciales”, dijo a un grupo de reporteros luego del incidente. «Es realmente importante para nosotros mostrar cuál puede ser el potencial de la IA y el aprendizaje automático y predicar con el ejemplo».

Actualización 29/10, 15:10 ET: Aclaró que Google.org, el brazo caritativo de la empresa, es la organización que supervisa el AI Impact Challenge, y Google realmente lo es.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.