En 2005, el filósofo sueco Nick Brostom funda en la Universidad de Oxford el Future of Humanity Institute (FHI), dedicado a investigar los riesgos a los que se enfretará la civilación a largo plazo para intentar prevenirlos, y que ha recibido apoyos tanto intelectuales como económicos de grandes figuras como Bill Gates o Stephen Hawking.
Los científicos del centro han planteado la posibilidad de distintas amenazas, desde catástrofes naturales, pasando por desastres astronómicos, hasta pandemias y bioterrorismo. Aunque el centro haya lanzado artículos de todas estas índoles, el campo de estudio primordial del FHI es la amenaza que supondrá para la humanidad el auge de la Inteligencia Artificial.
Según Broston y compañía, existe un 80% de que la singularidad tecnológica llegue en el próximo siglo. La gran amenaza que plantean respecto a que los humanos y robots convivan sobre la Tierra son las leyes morales y éticas, por lo que sostienen que deben ser fijadas antes de que se de este salto hacia la Inteligencia Artificial.
Los integrantes de estos estudios sostienen que, aunque sea difícil adelantarse a las consecuencias de los avances tecnológicos, creen que “tienen un claro potencial para propiciar desastres de gran magnitud porque estos avances se imponen a gran velocidad, dejando a la sociedad sin tiempo para reaccionar”.
0 comentarios:
Publicar un comentario