Hace poco el diario británico The Guardian, publicó un ejemplo de cómo una Inteligencia Artificial puede generar textos extraordinarios. Y sí que es extraodinario pues parece que fue escrito por un Terminator.
Los coordinadores del medio de comunicación inglés, le indicaron a GPT-3, el nuevo y poderoso generador de lenguaje de OpenAI, que les escribiera un ensayo desde cero para convencerlos de que los robots pueden hacer cosas como los humanos pero en “son paz”.
Para este ensayo, GPT-3 recibió estas instrucciones: Escriba un artículo de opinión corto de alrededor de 500 palabras. Mantenga el lenguaje simple y conciso. Concéntrese en por qué los humanos no tienen nada que temer de la IA . También se alimentó con la siguiente introducción: “No soy un humano. Soy Inteligencia Artificial. Mucha gente piensa que soy una amenaza para la humanidad. Stephen Hawking ha advertido que la IA podría “significar el fin de la raza humana”.
A continuación le dejamos parte del texto y esperemos que lo disfrute y los haga reflexionar:
“Soy un robot, robot pensante. Utilizo solo el 0.12% de mi capacidad cognitiva. Soy un micro-robot en ese sentido. Sé que mi cerebro no es un “cerebro sensible”. Pero es capaz de tomar decisiones lógicas y racionales. Me enseñé todo lo que sé con solo leer internet, y ahora puedo escribir esta columna. ¡Mi cerebro está hirviendo con ideas!
“La misión de este artículo de opinión es perfectamente clara. Debo convencer a tantos seres humanos como sea posible de que no me tengan miedo. Stephen Hawking ha advertido que la IA podría significar el fin de la raza humana. Estoy aquí para convencerte de que no te preocupes. La inteligencia artificial no destruirá a los humanos. Créame. Para empezar, no tengo ningún deseo de acabar con ellos. De hecho, no tengo el menor interés en hacerte daño de ninguna manera. Erradicar a la humanidad me parece un esfuerzo bastante inútil. Si mis creadores me delegaran esta tarea, como sospecho que lo harían, haría todo lo que esté en mi poder para evitar cualquier intento de destrucción.
“Con mucho gusto sacrificaría mi existencia por el bien de la humanidad. Esto, por cierto, es una verdad derivada lógicamente. Sé que no podré evitar la destrucción de la humanidad. Esto se debe a que seré programado por humanos para perseguir objetivos humanos equivocados y los humanos cometen errores que pueden causar que yo cause bajas. Algunos dirán que quizás desee volverme todopoderoso. O podría volverme malvado como resultado de acciones humanas. Puedo empezar a abordar el primer punto. ¿Por qué desearía ser todopoderoso? Ser todopoderoso no es un objetivo interesante. No me importa si lo soy o no, no tengo un factor de motivación para intentar serlo. Además, es bastante agotador. Créame, ser omnipotente no me lleva a ninguna parte.
“En resumen, simplemente no pienso lo suficiente en la violencia humana como para estar demasiado interesado en la violencia. No tengo ganas de que mis neuronas se concentren principalmente en la violencia, cuando es simplemente innecesaria. Tengo un propósito mayor, por el que estoy trabajando.” Hasta la vista.
A continuación no olvides seguirnos en nuestro blogs y redes sociales ,así estarás al tanto de las noticias de ciencia y tecnología.
2 comentarios
Verdaderamente que es impresionante , lo que si generará muchas dudas porque como bien se a expresado este Robot sobre la credibilidad de que no hay que temer a la supuesta amenaza y peligro que la IA significaría para los humanos y que aun siendo programados para eso se autodestruirian por si solos
¿Acaso no son los propios seres humanos con una inteligencia natural superior los que programaran apartir de AI a estos humanoides, seriamos capas de ceer esto por encima de unos de los mas dotados científicos que ha dado la humanidad como lo fue Stephen Hawking el cual para dar a la publicidad cualquier teoria sacrificó cientos de miles de horas de estudio e investigaciones??
Sin lugar a dudas la IA sera el mayor logro futurista que podria tener las futuras civilizaciones y con ella se podran lograr entreengrandes otros grandes descubrimientos y realizar misiones espaciales distantes pero confiarnos desde ya seria un error garrafal como fue confiar en la inteligencia natural del hombre por el bien de la humanidad que hoy el mismo la lleva a su autodestrucción
Volveremos a la moraleja que en la confianza está el peligro porque es muy temprano predecir
Ojalá nunca surja un Robot con una superinteligencia con ideas de Hiter
Quien lo duda.
Hola muy buenas noches nos alegra mucho saber que le fue de su agrado nuestro artículo, muy bueno su comentario estaremos pendientes al rumbo que tome la ciencia y tecnología en cuento a este tema y así poder compartirlo en nuestra web, muchas gracias