El físico británico Stephen Hawking
alertó sobre los peligros de la Inteligencia Artificial. El físico
considera que los esfuerzos en crear este tipo de tecnología avanzada
puede poner en riegos la supervivencia de los seres humanos.
Parece
que nos somos los únicos en sentir un cierto reparo hacia la idea de
construir una máquina inteligente capaz de pensar por si misma. El
laureado físico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podría cometer la humanidad, y probablemente el último.
Hawking no
se muestra abiertamente contrario a las investigaciones en este campo,
pero cree que la comunidad científica no se está preocupando lo
suficiente por mantener bajo control un eventual sistema de inteligencia
artificial el día que se descubra. El físico ha publicado un artículo
conjunto con el especialista en computación Stuart Russell, y los
físicos Max Tegmark y Frank Wilczek. Estas son sus palabras.
Si miramos hacia el futuro, no hay límites a lo podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza.No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos años", nuestra respuesta sería: "¡Ok! Avisadnos cuando estéis llegando para dejar las luces encendidas"? Probablemente no, pero eso es más o menos lo que está ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.
Humanos suprimidos por robots: Los esclavos se revelan.
«Los humanos, que están limitados por la evolución biológica, no podrían competir y quedarían suprimidos» por los robots, analizó Hawking.
El físico habló además de los peligros que a sus ojos puede
acarrear internet y resaltó que las compañías de telecomunicaciones
deben «hacer más» para «contrarrestar las amenazas» que pueden propagarse a través de la red. «La dificultad está en cómo hacerlo sin sacrificar la libertad y la privacidad», reflexionó Hawking
Hawking no es el primero que expresa su preocupación por la
inteligencia artificial. Elon Musk, CEO de Tesla, ha dicho en varias
ocasiones que esta tecnología puede suponer un riesgo. «Con la inteligencia artificial estamos invocando al demonio» ó « puede ser más peligrosa que las armas nucleares» han sido algunas de sus calificaciones.
“los ordenadores superarán nuestra inteligencia en 100 años”: es decir Año 2.115
El genio de la física teórica, Stephen Hawking, ha advertido que los
ordenadores superarán a los humanos en capacidad intelectuales finales
del presente siglo.
Fruto de una de las convenciones en el Zeitgeist 2015 en Londres, el reconocido profesor de la Universidad de Cambridge declaró:
"Los ordenadores superarán a los humanos gracias a la inteligencia artificial en algún punto dentro de los próximos 100 años. Cuando esto suceda, debemos estar seguros de que los ordenadores tienen unos objetivos y metas compatibles con los nuestros."
Hawking firmó una carta abierta dirigida a Elon Musk este mismo año
advirtiendo sobre el desarrollo de la inteligencia artificial de forma
incontrolada: "Nuestro futuro es una carrera entre el creciente desarrollo de la tecnología y nuestra forma de emplearla." No sólo eso, Hawking fue más allá: "Nos
preocupa quién controla la inteligencia artificial, pero en el futuro
nuestra preocupación debería ser si la inteligencia artificial se podrá
llegar a controlar de alguna forma."
La inteligencia artificial es la inteligencia de las máquinas, robots, ordenadores o software. Tiene el potencial de cambiar el mundo tal y como lo conocemos hoy en día y su desarrollo e implementación siempre ha sido un sueño y meta de las grandes corporaciones tecnológicas
como Google. No hace falta soñar con el futuro, hoy en día vivimos los
primeros pasos de inteligencia artificial. Aunque de forma limitada
podríamos llegar a concluir que asistentes como Siri y Google Now
comienzan a ser los primeros atisbos de la inteligencia artificial
aplicada en nuestros días: recopilan información, la tratan y aprenden
de ella para desempeñar mejor su función en el futuro. Más de 150 startups persiguen este sueño en Silicon Valley.
La advertencia de Stephen Hawking es clara: los
científicos y las empresas tecnológicas deben coordinarse y comunicar
los avances en inteligencia artificial antes de que sea demasiado tarde y los seres humanos perdamos el poder de controlarla y emplearla para el beneficio de nuestras sociedades.
Bill Gates también expresó su preocupación respecto al bajo control
que hay en el desarrollo de la inteligencia artificial en su último AmA en Reddit.
No hay comentarios:
Publicar un comentario