简体中文
繁體中文
English
Pусский
日本語
ภาษาไทย
Tiếng Việt
Bahasa Indonesia
Español
हिन्दी
Filippiiniläinen
Français
Deutsch
Português
Türkçe
한국어
العربية
Extracto:Bill Gates ha apoyado en varias ocasiones a Nick Bostrom, un profesor de filosofía que ahora asegura que la IA es una amenaza mayor que el cambio climático.
{0}
Nick Bostrom, profesor de filosofía en la Universidad de Oxford, es un experto en los riesgos que plantea la inteligencia artificial.
{0}
Bostrom, cuyo trabajo ha sido respaldado por Elon Musk y Bill Gates, dice a Business Insider que la IA es “una amenaza mayor para la existencia humana que el cambio climático”.
Dice que es “mucho esperar” que las grandes compañías de tecnología, como Google y Facebook, diseñen sus propios marcos éticos para la IA.
Bostrom también afirma que cree que debería haber más gente con conocimientos básicos de IA en los gobiernos.
Uno de los principales pensadores del mundo sobre inteligencia artificial dice que la tecnología es una amenaza mayor para la civilización que el cambio climático.
Nick Bostrom, profesor de filosofía de Oxford, dice a Business Insider: “La IA es una amenaza mayor para la existencia humana que el cambio climático. El cambio climático no va a ser el mayor cambio que veamos en este siglo”.
Añade: “Es poco probable que el cambio climático tenga una buena solución, pero si el desarrollo de AI sale mal, será mucho peor que el cambio climático. ”La IA puede ser beneficiar mucho a la humanidad, pero también puede salir muy mal.
Bostrom es un pensador reconocido en su campo, habiendo publicado libros como Superintelligence: Paths, Dangers, Strategies. También es un caso inusual ya que convence a ambos lados del debate: su trabajo ha sido respaldado por Elon Musk, que ha expresado puntos de vista apocalípticos sobre la IA, y Bill Gates, un cauteloso y optimista defensor de la tecnología.
Es por eso que es cuidadoso en calificar su comparación con el cambio climático, una fuerza que podría dañar irrevocablemente a la Tierra a menos que los humanos hagan cambios radicales en la próxima década.
“La razón por la que la IA es a menudo representada como robots malvados en los medios de comunicación es porque es una buena historia. Los robots son más atractivos visualmente que un chip dentro de una caja negra; se pueden ver y sentir de una manera que no se puede con un chip”, explica. “Pero la maldad no es el problema. Es la posibilidad de que las inteligencias artificiales sean indiferentes a las metas humanas.”
Leer más: Robots con valores: los desafíos éticos de la Inteligencia Artificial
La IA puede ser indiferente a los objetivos de los humanos, y eso es peligroso
Todas las entidades inteligentes, ya sean humanas o artificiales, tienen metas, incluso si están preprogramadas. Para termómetros de IA muy simples, por ejemplo, el objetivo es medir con éxito la temperatura.
El temor de Bostrom es que si las inteligencias artificiales se vuelven lo suficientemente competentes en la búsqueda de sus objetivos, incluso aquellos que suenan inofensivos, pueden dañar a las personas sin darse cuenta.
En un artículo de 2003, Bostrom da el ejemplo de una IA cuyo único objetivo es maximizar la producción de clips de papel.
如果你把世界变成一台机器纸夹声音愚蠢是因为它不符合人类的目标。但打印机剪辑之后,即是目标,一个合乎逻辑的结论。
当你变得如此的制作剪辑好得令人吃惊,你可能最终会伤到人。建议不会是邪恶的,它是无所谓超越自己的目标。
{} 18 上面的例子可以是[R疯了,但博斯特伦上显示 AI的漠视人类的努力可能已经是一个真正的威胁。 {18} “最大的方式在AI可以有负面影响的信息系统,如选择新闻确认的人或作为监控系统的偏见的作用,”他说。
阅读更多:深假货:人工智能的最令人不安的用途
{} 21 已经出现问题后,提出问题关于是否像亚马逊和微软应该公司向公共机构出售面部识别技术。 {21} 美国公民自由联盟去年五月表示,亚马逊已将其识别工具出售给政府机构和警察为了公共监视的目的,并确定“感兴趣的人”。美国公民自由联盟去年还发现,Rekognition错误识别国会28名成员谁被逮捕的人。
{} 777 有关博斯特伦,最大的挑战是保持IA下控制并时间表与人类目标对准。 {777} “第一个挑战技术人员会如寻找一种方法来开发一种可控的方式IA”他说。 “假如我们解决这个问题,我们的下一个目标是创建服务于共同利益的一种世界秩序的社会挑战。”
在大的技术正在努力想出如何使IA它是安全的。
{} 26 所以你觉得这博斯特伦大型科技公司努力不够,开发AI控制的?谷歌,亚马逊,Facebook和苹果都在前列IA的发展,然而,有学者认为它们不是开发一个兼容IA与人类的目标。 {26} {} 27 博斯特伦认为,谁已经在大讲的人的公司李有成“是我关心的是AI是安全和兼容”的目标。 {27} “我也有感觉,他们无法找出怎么做,”他承认。 “这是太大的奢望每一个技术公司建立自己的道德框架来控制AI。”
公司技术明显这个问题拼杀。谷歌,例如,溶解伦理委员会的AI一个星期后的数千名员工的竞选反对列入凯科尔斯詹姆斯,传统基金会的权利智库总裁。
{15}
Si esta IA pudiera reprogramarse para mejorar su inteligencia -algo de lo que ya son capaces algunas IA desarrolladas por Google- podría llegar a ser tan inteligente que podría innovar en formas de maximizar el número de clips que produce. En algún momento, podría comenzar “transformando primero toda la tierra y luego aumentando porciones de espacio dedicadas a instalaciones de fabricación de clips”, escribe Bostrom.
{15}{16}
Si convertir el mundo en una máquina de clips de papel suena estúpido es porque no se alinea con los objetivos de los humanos. Pero la impresora de clips está siguiendo sus objetivos hasta una conclusión lógica.
{16}{17}
Al volverse tan asombrosamente buena en hacer clips,podría terminar dañando a la gente. No se habría propuesto ser malvado, es indiferente a objetivos que van más allá de los suyos.
{17}{18}
El ejemplo puede sonar descabellado, pero Bostrom dice que la indiferencia de la IA ante los esfuerzos de la humanidad podría ser ya una amenaza real.
{18}{19}
“La mayor manera en que la IA puede tener un impacto negativo es en el papel de sistemas de información, como seleccionar noticias que confirmen los prejuicios de la gente o actuar como sistemas de vigilancia”, explica.
{19}{20}
Leer más: Deep Fakes: los usos más inquietantes de la Inteligencia Artificial
{20}{21}
Ya están surgiendo problemas con estos últimos, lo que suscita interrogantes sobre si empresas como Amazon y Microsoft deberían estar vendiendo tecnología de reconocimiento facial a organismos públicos.
{21}{22}
La American Civil Liberties Union dijo el pasado mes de mayo que Amazon había vendido su herramienta de reconocimiento a agencias gubernamentales y policiales con el propósito de vigilancia pública e identificar a “personas de interés”. La ACLU también encontró el año pasado que Rekognition identificó incorrectamente a 28 miembros del Congreso como personas que habían sido arrestadas.
{22}{777}
Para Bostrom, el gran desafío es mantener la IA bajo control y programarla para alinearla con los objetivos humanos.
{777}{24}
“El primer desafío será técnico, como encontrar una forma de desarrollar la IA de manera controlada”, dice. “Suponiendo que resolvamos eso, nuestros próximos objetivos son los retos sociales de crear un orden mundial que sirva al bien común.”
{24}{25}
La grandes tecnológicas está luchando para averiguar cómo hacer que la IA sea segura
{25}{26}
Entonces, ¿cree Bostrom que las grandes empresas de tecnología se esfuerzan lo suficiente para desarrollar la IA de forma controlada? Google, Amazon, Facebook y Apple están a la vanguardia del desarrollo de la IA y, sin embargo, algunos académicos piensan que no están desarrollando una IA compatible con los objetivos humanos.
{26}{27}
Bostrom cree que la gente con la que ha hablado en las grandes compañías de tecnología“se preocupa por hacer que la IA sea segura y compatible” con esos objetivos.
{27}{28}
“También tengo la sensación de que no son capaces de averiguar cómo hacer esto”, admite. “Es mucho esperar que cada compañía de tecnología cree su propio marco ético para controlar la IA.”
{28}{29}
Las empresas de tecnología están lidiando visiblemente con este problema. Google, por ejemplo, disolvió un comité de ética de la IA una semana después de que miles de empleados hicieran campaña contra la inclusión de Kay Coles James, presidente de la Heritage Foundation, un think tank de derechas.
{29}{30}
Pero si no se puede confiar en que las grandes empresas de tecnología creen marcos para desarrollar la IA de manera ética y segura, ¿quién puede hacerlo? ¿Qué hay de los gobiernos? De nuevo, Bostrom es escéptico.
{30}
“Todavía no hay muchas propuestas políticas claras sobre cómo deben intervenir los gobiernos”, dice. Ahora mismo, no está claro qué es lo que querríamos que hicieran los gobiernos. Tenemos que ampliar la conversación.
Se supone que el capitalismo funciona cuando los gobiernos crean las reglas de comportamiento y las compañías funcionan dentro de esas reglas“, dice, pero ”hay un desajuste cultural entre Silicon Valley y los gobiernos“: Silicon Valley tiene una ética de inclinación libertaria, mientras que los gobiernos están por detrás y no son emprendedores”.
Leer más: 15 proyectos de la Unión Europea que demuestran cómo la Inteligencia Artificial puede mejorar tu vida
Y añade: “Creo que será necesario que el gobierno cuente con más gente que entienda la IA, no necesariamente investigadores brillantes, sino gente con suficiente experiencia, especializados en informática. La capacidad de entender la IA viene en grados. A veces es mejor no ser demasiado especialista, porque si estás demasiado especializado, puedes tener una visión estrecha de las ramificaciones sociales más amplias de un campo”.
Bostrom, sin embargo, cree que puede dar forma a la conversación en torno a la IA mientras permanece en el mundo académico. También afirma que los empleados activistas, como los de Google, están poniendo su parte para que sus empresas rindan cuentas.
“Hay cosas que los investigadores de la IA pueden hacer para influir en el comportamiento de las grandes empresas de tecnología sin tener que abandonar el mundo académico”, dice. “También hay un grado de activismo público dentro de las comunidades de investigación de la IA, como el reciente levantamiento dentro de Google”.
Este artículo fue publicado originalmente en BI Prime.
Descargo de responsabilidad:
Las opiniones de este artículo solo representan las opiniones personales del autor y no constituyen un consejo de inversión para esta plataforma. Esta plataforma no garantiza la precisión, integridad y actualidad de la información del artículo, ni es responsable de ninguna pérdida causada por el uso o la confianza en la información del artículo.