Chica joven mirando de frente a un robot: Inteligencia artificial, ¿amenaza o aliada?
Actualidad,  Desarrollo Personal,  Resiliencia

IA: ¿amenaza o aliada?

Cada vez es más frecuente oír hablar de la Inteligencia artificial, de sus progresos, de lo mal que algunos la están utilizando y este ruido continuo sobre el mismo teme puede llevarnos a preguntamos si representa una amenaza, o puede ser nuestra aliada.

La IA está en plena expansión, es un hecho, todos los datos indican que no hace más que crecer, a ritmo vertiginoso. Lo que contemplábamos hace unos años como una tecnología futurista aún lejana, nos ha alcanzado; está omnipresente, y amenaza con superarnos. No cabe duda de que ha venido para quedarse. Es imposible no estremecerse y preguntarse si debe ser considerada como una amenaza o si, al contrario, debería convertirse en nuestra aliada.

IA ¿En qué consiste?

Se trata de unos sistemas informáticos basados en algoritmos complejos, que utilizan y procesan enormes cantidades de datos. Están diseñados con el fin de imitar y reproducir algunas capacidades humanas, entre las cuales figura la percepción, el aprendizaje, el razonamiento y la toma de decisiones.

¿Dónde están estos sistemas?

Pues aunque no nos demos cuenta de ello están en todas partes, en los motores de búsqueda de la web, los chatbots, la domótica, la administración pública, en los asistentes virtuales, en los programas de traducción, en la industria automovil, la cyberseguridad, la investigación, la salud, agricultura, etc.

La lista es interminable.

Ventajas y oportunidades

La implementación de la IA tanto en las empresas como en la vida cotidiana puede traer grandes beneficios como la reducción de costes empresariales, el ahorro de tiempo, el aumento de la productividad, la eficiencia, la toma de decisiones, la resolución de problemas, etc.

Peligros y riesgos

Muchas voces se han elevado, avisando de la rápida e imparable expansión de la IA y de sus peligros, en un tono bastante alarmista. En 2023, se han publicado dos declaraciónes abiertas, firmadas por gente muy representativa de esla industria.

Una de ellas, del 22 de marzo, firmada por más de 1.000 personas, como el empresario Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind y  Carles Sierra (director del Instituto de Investigación de Inteligencia Artificial del CSIC), pide que se pause durante seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4.

La otra, del 30 de mayo pide que se equipare el riesgo de la inteligencia artificial a otros prioritarios como las pandemias y la guerra nuclear.

¿Alarma catastrofista?

Muchos temen que la IA pueda utilizarse para la difusión de propaganda, la desinformación, y que ponga en peligro miles de puestos de trabajo. Hemos asistido recientemente a una huelga y protesta de los trabajadores del cine en USA, que temen verse desplazados y reemplazados por máquinas. Es necesario controlar la aplicación de la IA y considerar cuidadosamente la posibilidad de pérdida de puestos de trabajo, así como capacitar los trabajadores para nuevos puestos relacionados con la IA.

También es urgente, en mi opinión, establecer una regulación que controle las posibles consecuencias del uso y maluso de esta tecnología. Debemos asegurarnos que los algoritmos que utilizan grandes cantidades de datos, y que contienen sesgos humanos, no contribuyan a perpetuar los prejuicios, por ejemplo en la contratación de personal.

En temas de vigilancia y seguridad, corremos el riesgo de que la tecnología sea invasiva, nos haga perder privacidad, y no respete la información personal. Es prioritario y urgente establecer medidas para salvaguardar la privacidad de los datos.

También sería importante determinar el grado de responsabilidad en caso de accidentes causados por esta tecnología. Si bien la IA nos ayuda a reducir y evitar los errores humanos, debemos determinar quién asume la responsabilidad en estos casos, para proteger los derechos de las personas.

¿Qué ocurre con la superinteligencia?

Todos nos imaginamos un posible riesgo a más largo plazo y es el de la superinteligencia. ¿Qué ocurriría si la IA llega a un nivel de inteligencia artificial que supere ampliamente a la inteligencia humana? Esta posibilidad de que adquiera una superinteligencia plantea cuestiones importantes, y nos obliga a reflexionar sobre su control. Debemos ser capaces de predecir y controlar sus acciones. Las máquinas con superinteligencia deben ser seguras y actuar acorde a los valores humanos, lo que representa un desafío no solo tecnológico sino ético.

¿Las máquinas nos van a sustituír?

La sensacion general y el miedo popular que se palpa ante al auge de la IA, es que las máquinas nos lleguen a sustituír y que supriman puestos de trabajo.

Gerd Leonhard, autor del libro: La tecnología contra la humanidad, el choque entre el hombre y la máquina afirma que :

«Hoy es el momento en que construimos nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género humano hasta el momento, la posibilidad de una especie de superhombre que se convierte en Dios no tiene precedentes»

«Creo que a veces reaccionamos de forma exagerada ante los posibles peligros, y no podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso»

Lo que es obvio, es que la IA nos va a obligar a formarnos, se perderán puestos de trabajos pero nos va a obligar a evolucionar. Según un artículo de Jesús Maturana publicado en la revista Computer hoy:

Desde el año 2000 los robots y los sistemas de automatización han ido cogiendo peso en distintos sectores y han quitado 1,7 millones de trabajos. Sin embargo, por otro lado, todo el boom IA se espera que cree 97 millones de trabajos en 2025.

Lo que no puede replicar la IA

Actualmente, hay varias capacidades y características de la mente humana que la IA aún no puede replicar completamente, como son las emociones en general, la creatividad y la capacidad de liderazgo. En estas áreas, la IA todavía muestra limitaciones significativas en comparación con la mente humana.

Creatividad y arte

Si bien la IA puede generar contenido basado en patrones aprendidos, como música o arte, todavía carece de la verdadera creatividad y la capacidad de generar ideas completamente nuevas y originales como los humanos.

Emociones

La IA carece de emociones y no demuestra empatía. Puede simular respuestas empáticas, pero su comprensión emocional se limita a la interpretación de datos y patrones previamente introducidos, por lo que no tiene verdader comprensión emocional.

Sentido común

La IA puede ser sorprendentemente buena en tareas específicas para las que ha sido entrenada, pero generalmente carece de sentido común. Los humanos pueden aplicar su conocimiento general y lógica para abordar situaciones desconocidas, mientras que la IA puede tener dificultades para hacerlo sin datos suficientes.

Comprensión contextual y cultural

La IA puede tener dificultades para comprender el contexto y la cultura de manera tan profunda como los humanos. A menudo, los modelos de IA pueden malinterpretar el humor, el sarcasmo o las expresiones lingüísticas complejas que requieren conocimiento cultural y contextual.

Aprendizaje a partir de un ejemplo

Los humanos pueden aprender nuevas tareas y habilidades a partir de un solo ejemplo o una explicación breve. En cambio, la IA generalmente requiere grandes conjuntos de datos etiquetados para aprender con precisión.

Razonamiento ético

la IA puede resolver problemas matemáticos complejos, todavía tiene dificultades para realizar razonamientos abstractos y tomar decisiones éticas o morales de manera similar a los seres humanos.

Conciencia de si misma

La IA no tiene una comprensión de su propia existencia o identidad. Aunque, ultimamente han aparecido noticias, que aún están por comprobar, alertando de las declaraciones de varios robots que supuestamente habrían afirmado tener consciencia de si mismo.

Es importante tener en cuenta que la investigación y el desarrollo en IA siguen avanzando rápidamente, por lo que algunas de estas limitaciones de hoy podrían desaparecer en un futuro cercano.

Conclusión

Debemos considerar la IA como una fuente de oportunidades importantes para la sociedad, pero también comprender que también presenta unos desafíos que debemos gestionar y resolver. No debemos ignorar los posibles riesgos asociados a esta tecnología, sino abordarlos con seriedad, y hacerlo a través de regulaciones adecuadas, investigaciones éticas y una mayor conciencia pública.

Solo cuando seamos capaces de encontrar el equilibrio adecuado entre la innovación y la seguridad, podremos aprovechar plenamente el potencial enorme que nos ofrece la IA.

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información básica sobre protección de datos Ver más

  • Responsable: Michèle Rodriguez Pastor.
  • Finalidad:  Moderar los comentarios.
  • Legitimación:  Por consentimiento del interesado.
  • Destinatarios y encargados de tratamiento:  No se ceden o comunican datos a terceros para prestar este servicio. El Titular ha contratado los servicios de alojamiento web a webempresa que actúa como encargado de tratamiento.
  • Derechos: Acceder, rectificar y suprimir los datos.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Configurar y más información
Privacidad