Monday, March 17

Controversia en torno a directrices éticas en tecnología

En una actualización reciente de sus pautas éticas, una empresa tecnológica de renombre ha eliminado su compromiso anterior de no emplear la inteligencia artificial (IA) en aplicaciones vinculadas a armas o vigilancia que puedan violar normas internacionales o derechos humanos. Hasta hace poco, la política de la compañía impidía el desarrollo de tecnologías que pudieran generar daño en general, incluyendo armamento, alineándose con principios internacionales de derechos humanos.

En una reciente actualización de sus directrices éticas, una destacada empresa tecnológica ha eliminado su compromiso previo de no utilizar la inteligencia artificial (IA) en aplicaciones relacionadas con armamento o vigilancia que puedan infringir normas internacionales o derechos humanos. Hasta hace poco, la política de la compañía evitaba el desarrollo de tecnologías que pudieran causar daño general, incluyendo armas, alineándose con principios internacionales de derechos humanos.

La revisión de las pautas se da en un contexto de creciente competencia mundial por el dominio de la IA. Los directivos de la empresa sostienen que las democracias deben encabezar el desarrollo de la IA, guiándose por valores esenciales como la libertad, la igualdad y el respeto a los derechos humanos. Asimismo, subrayan la importancia de la cooperación entre empresas, gobiernos y organizaciones afines que compartan estos valores para desarrollar una IA que resguarde a las personas, impulse el crecimiento global y apoye la seguridad nacional.

La actualización de las directrices se produce en un contexto de creciente competencia global por el liderazgo en IA. Los ejecutivos de la empresa argumentan que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Además, enfatizan la importancia de la colaboración entre empresas, gobiernos y organizaciones que comparten estos valores para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional.

Esta decisión marca un cambio significativo respecto a la postura adoptada en 2018, cuando la empresa prohibió el uso de su tecnología de IA en armamento tras protestas internas relacionadas con un contrato con el Departamento de Defensa de Estados Unidos para analizar videos de drones. Desde entonces, la tecnología ha avanzado considerablemente, y la IA se ha convertido en una herramienta omnipresente en diversas aplicaciones, desde teléfonos móviles hasta internet.

La eliminación de la prohibición alinea a la empresa con otras en el sector tecnológico que permiten ciertas aplicaciones militares de sus tecnologías. Por ejemplo, desarrolladores de IA como Meta y OpenAI han permitido el uso de sus tecnologías en contextos militares. Esta tendencia refleja una reevaluación de las políticas corporativas en respuesta a las dinámicas geopolíticas y los avances tecnológicos actuales.

Sin embargo, esta decisión también ha suscitado preocupaciones entre expertos y defensores de la ética en la IA. Algunos argumentan que el desarrollo de sistemas de armas autónomas y herramientas de vigilancia impulsadas por IA podría tener implicaciones éticas y de derechos humanos significativas. La comunidad científica ha advertido sobre los riesgos asociados con el desarrollo de armas autónomas y ha abogado por un sistema de control global para mitigar posibles amenazas.