Blog

3 razones por las que la IA no sustituye a los desarrolladores

Contenidos

Muchas empresas se fijan en la IA para ver cuánto pueden sacar de esta tecnología: si puede comunicarse y resolver problemas como un humano, puede hacer el trabajo de un humano, ¿no?

Si has seguido de cerca las capacidades y deficiencias de la IA, probablemente ya sepas que la respuesta es «en realidad no». 

Aquí veremos por qué.

Por qué la IA no está ni cerca de pensar como un ser humano

Aunque los sistemas de IA pueden aprender de forma autónoma cuando están conectados con ML, necesitan ayuda humana para hacerlo bien. Sin supervisión humana, los pequeños problemas de lógica tienden a empeorar con cada iteración, lo que descarrila cualquier proyecto. 

La creatividad no está ahí, y la falta de perspectiva humana significa que no siempre puede resolver problemas o realizar tareas que se ajusten a las necesidades humanas. Por ejemplo, piensa en cómo dibujan las manos la mayoría de las soluciones modernas.

Los productos de OpenAI, Bard de Google y todo lo demás que hay en el mercado carecen de apéndices humanos, como nuestras manos: como humanos, sabemos qué aspecto debe tener una mano normal, cómo se mueve, sus limitaciones mecánicas y otras propiedades porque (normalmente) forman parte intrínseca de nuestra existencia. 

Todo lo que una IA de estos sistemas sabe sobre una mano humana es a través de un espejo: no tienen más marco de referencia que las matemáticas y el código proporcionados por un humano.

Esencialmente, la lógica utilizada para dibujar una mano tiene una montaña de ejemplos de los que tirar, pero los fallos lógicos inocuos a medida que dibuja compuestos, como una tarjeta de crédito, interesan para producir resultados que van de lo cómico a lo inquietante.

Ahora, aplica esto a un sistema que escribe código para productos digitales destinados al uso humano: acertará en algunas partes, pero las cosas se ponen raras con los sistemas en su estado actual sin una perspectiva humana.

3 razones por las que la IA no puede sustituir a los desarrolladores

La IA puede proporcionar una asistencia sin precedentes para muchas tareas, pero los períodos prolongados de automatización para la mayoría de las tareas se desviarán casi con toda seguridad hacia lo oscuro. Veamos algunos detalles de por qué la IA no reemplazará a los desarrolladores en el corto plazo.

1. La IA está objetivamente limitada cuando se trata de pensamiento creativo

La informática general y la IA resuelven problemas a partir de procesos mecánicos y basados en la lógica: el diferenciador más significativo es simplemente que esta última tiene muchas más capas. Aunque la IA puede utilizar datos para crear soluciones en torno a tendencias, está limitada en cuanto a la medida en que puede salir de su base de conocimientos para resolver problemas de una forma que «encaje» con la experiencia humana.

Durante décadas, se ha especulado con la posibilidad de que una IA militar se convierta en una situación similar a la de Skynet, de la emblemática película Terminator, en la que los humanos son etiquetados como una especie de virus, con respecto a la salud general del planeta, lo que le lleva a destruirnos a todos.

Como sabemos, pocas cuestiones en el mundo real se resuelven de forma decisiva con absolutos rígidos, los cambios sociales son lentos (a menos que se trate de adoptar una conveniencia), y está toda la cuestión de la tendencia humana a comportarse de forma irracional, aunque predecible.

Los LLM (Large Language Models) actuales son un excelente comienzo para utilizar la IA en más lugares y ayudarnos con muchas tareas, pero no están ni cerca de tener todas las piezas que necesita para ponerse en el lugar de un humano y tomar buenas decisiones sobre cómo diseñar mejor y desarrollar un producto que otros humanos puedan utilizar eficazmente.

La creatividad práctica es un proceso polifacético en el que a menudo intervienen múltiples funciones cognitivas. Se puede entrenar a las IA para que intercambien ideas, pero sin la validación (y comprobación) humana, lo más probable es que se produzcan tonterías creativas.

Después de todo, algunas IAs nos dibujan con manos de mariposa y no le dan importancia.

2. Puedes utilizar el contexto para navegar por la ambigüedad y desarrollar interpretaciones adecuadas. La IA, no tanto

El lenguaje y las expresiones evolucionan a lo largo del tiempo, desde los modismos y axiomas que utilizamos para condensar y transmitir el lenguaje hasta el humor que empleamos para entretenernos a nosotros mismos y a los demás.

Pensamos y sentimos de distintas maneras sobre diversas cosas, y la forma en que comunicamos nuestras ideas puede ser muy diferente, pero todas significan lo mismo.

Teniendo en cuenta lo importante que es la retroalimentación para crear iteraciones satisfactorias de un producto, se necesitan seres humanos para evaluar la comunicación humana.

Estas herramientas pueden ayudarnos, pero hasta cierto punto, que varía según los casos. Los desarrolladores y diseñadores utilizan mucho más que datos basados únicamente en texto para evaluar el contenido de una conversación, lo cual es primordial para encontrar soluciones razonables a través de los comentarios de los usuarios.

Con una comprensión limitada del lenguaje, la IA no puede entender completamente la retroalimentación. Y si no es capaz de entender las opiniones de los usuarios, no importa lo bien que escriba el código si va a crear algo que a la gente simplemente no le gusta.

3. La IA sólo puede ser tan ética como nosotros le digamos que sea

Se puede pensar en la IA como en un vasto conjunto de sentencias «si/entonces», que son la base de muchas de las operaciones que estos sistemas realizan en cualquier software.

Históricamente, la informática tradicional procesaba los comandos «si esto, entonces haz esto» de forma lineal, pero todo cambió cuando aprendimos a aprovechar el escalado horizontal de la computación.

Un escalado horizontal adecuado mejora la eficiencia de la mayoría de las tareas, distribuye mejor el calor y se presta a los procesos computacionales de la IA moderna, que a menudo procesan múltiples operaciones lógicas simultáneamente, incluidas las comprobaciones éticas.

Estos diseños permiten que las funciones éticas subordinadas se ejecuten durante otras operaciones, impulsando procesos como la evaluación de contenidos en tiempo real (como cuando se utiliza en la moderación de contenidos) o cuando se recibe una solicitud.

Estas funciones permiten a productos de cara al público como ChatGPT comprobar si hay lenguaje violento o que incite al odio en los contenidos que encuentra y en los resultados pendientes. Sin embargo, no sabría qué es odioso o violento sin que alguien se lo dijera primero.

Además, no todos los actos maliciosos son intencionados, ya que muchas cosas malas ocurren simplemente por excederse en algún proceso.

Es importante entender que construir con IA consiste tanto en hacer que algo funcione como en detenerlo. Casi todos los sistemas de la vida están sujetos a límites y limitaciones que la IA traspasará a menos que se le diga que altere su comportamiento cuando se cumplan ciertas condiciones.

Prácticamente cualquier IA que se utilice sin que los diseñadores y desarrolladores la vigilen de cerca acarreará inevitablemente problemas.

Artículos destacados

Artículo

From offline to online.

Comparte tus ideas con nosotros