martes, 6 de junio de 2023

Debate sobre peligros de Inteligencia Artificial continúa


Imagen tomada de www.lavanguardia.com

El debate sobre los peligros de la  Inteligencia Artificial continúa dándose en el mundo, estableciendo los pros y contras que tiene el desarrollo de esta inteligencia que amenaza con reemplazar a los seres humanos.

La carrera vertiginosa que se ha emprendido en los últimos años ha hecho que se manifiesten voces que exijan una regulación y control sobre la utilización de una inteligencia no humana que con el paso de los años puede superar en varios aspectos al ser humano, comenzando a desplazar el trabajo que realizan las personas.

En este planteamiento  se comienza a proyectar la desaparición de varios puestos  de trabajo que entrarían a ser ocupados por robots que reemplazarían a los humanos.

Lo anterior de antemano generaría una gran crisis para el empleo, pues al ser ocupadas las funciones por Inteligencia Artificial, muchos empleados terminarían en la calle.

La relación de costos entre lo que significa reducir un personal, evitando pagos de salarios y honorarios con otras cargas prestacionales, a  pesar de llegar a ser una posibilidad atractiva para los empleadores, con la reducción de costos por pago de nómina, evitando de paso otros conflictos que surgen de las relaciones laborales, deja un gran interrogante con un severo problema social que trae consigo el aumento de índices de desempleo e incremento de los niveles de pobreza y desigualdad, consiguiendo dentro de un contrasentido el encontrar sociedades con elevados niveles de tecnología aplicada a los procesos de producción pero con crecientes grados de deshumanización.

Entre las opiniones que se han levantado está la de Sam Altman, responsable del sistema ChatGPT que ha causado gran revolución y quien ha insistido en la necesidad de regular la Inteligencia Artificial IA.

Esta preocupación se ha venido expresando de manera directa por expertos, dentro los que se hallan los responsables de Open AI y Google Deepmind, pudiendo encontrarse en declaraciones publicadas por el Centro para la Seguridad de la Inteligencia Artificial,afirmaciones como la siguiente:"mitigar el riesgo de extinción a manos de la IA debería ser una prioridad en el mundo, junto a otros peligros a escala social como las pandemias y la guerra nuclear".

En un sitio en internet de la empresa Open AI se planteaba la necesidad de crear un organismo similar a la OEIA (Organismo Internacional de la Energía Atómica) para regular los adelantos en superinteligencia.

Sin embargo, hay quienes salen a la defensa de la IA entre los que se encuentra el profesor Yan LeCunn de la universidad de Nueva York, considerado uno de los padrinos de la Inteligencia Artificial, quien ha manifestado que los temores  que la IA acabe con la humanidad están por fuera de la realidad.

Pero la alerta mundial sobre este riesgo que afrontaría el género humano, se ha expandido apartir del mes de marzo de 2023 al conocerse una carta firmada por varios expertos, (entre cuyos firmantes se halla el presidente de la corporación Tesla, Elon Musk), donde se aboga de forma expresa por detener el desarrollo de la próxima generación de tecnología IA preguntándose si deberían: "desarrollar mentes no humanas que con el tiempo podrían superarnos en número,inteligencia, obsolescencia y reemplazo".

El cuestionamiento está en primer plano de una discusión orbital en la que está en juego lo que sería el desarrollo de  mentes no humanas que con el tiempo pudieran superar a los seres humanos en proporción numérica, dejando a un lado el empleo de la mano de trabajo humana, otorgando más ventajas prácticas en ahorro de dinero  y agilidad que superen la capacidad de una persona  y reemplacen muchos puestos de trabajo asignados a personas.