ChatGPT, guía a fondo
Preocupaciones
Por ejemplo, se podría mandar un ejercicio para casa y luego en clase desafiarlos a que cambien el ejercicio para que hagan algo diferente, más específico, y adaptarlo. Luego explicar algo del ejercicio. Se trata de probar el core de lo que se está preguntando para ponerlos a prueba.
Aclaración por algunos mitos o imágenes que se van afianzando en la opinión pública
Problemas, limitaciones, bias, límites éticos
- No creemos que reemplace, por ejemplo, a los programadores. OpenAI puede generar código que pareciera está programado pero realmente solo te está dando la coincidencia más exacta a lo que buscas. Es una forma más exacta de buscar recursos, lo que sería una alternativa a sitios como Stack Overflow o Google desde la perspectiva de un desarrollador.
- Este prototipo gratuito y de prueba de IA no reemplazará a los escritores técnicos, pero sí puede afectar a los asistentes de investigación. Aunque ChatGPT no puede escribir, digamos, un ensayo completo sobre nómadas digitales de un solo tirón, sí puede hacerlo por partes bajo la dirección e instrucción de una persona. Al final, alguien tiene que compilar el material recolectado, darle sentido, eliminar lo innecesario, buscar lo que falta y componer el texto final (vía Óscar Iván Pérez H de la Newsletter Quietud y Movimiento)
- ChatGPT casi nunca comete errores de ortografía, ni de gramática, ni de puntuación y, si tiene suficiente información de soporte, sus respuestas son correctas y coherentes pero también comete algunos deslices, imprecisiones y sesgos hacia el mundo anglosajón (vía Óscar Iván Pérez H de la Newsletter Quietud y Movimiento).
- Puede ser entrenado para algo malo aunque está parcheado.
- Puede ser usado para algo malo. Ejemplo: copiar en trabajos, exámenes…
- Falta de atribución, o fuentes (vs. Google).
- En algoritmos: parece que es correcto pero falla y es peor porque se inventa funciones y lo peor es que no se da cuenta del fallo. Con cosas generales funciona perfecto con cosas más específicas, menos.
- Es un modelo imperfecto. No está entrenado en experiencias o realidades físicas ni como el mundo lo experimenta. Describe lo que la gente ha escrito en el pasado. No tiene una comprensión real de la realidad en la que vive. Y comete errores. Cuando no tiene muchos inputs o ejemplos anteriores está limitado. ¿Y qué pasa si las cosas han cambiado? Esto puede llevar a errores graves.
- Cuando el coste de fallar se hace extremadamente, ahí está un peligro. Es un tema de seguridad. Robots que conviven con humanos, algoritmos para self driving cars, bbdd de bancos, optimización de un algoritmo complejo…
- Se puede entrenar un bias detector. Pero es un parche. Es entrenado en interacciones humanas en términos del output y esto limita su habilidad para pensar. Piensa por probabilidad y es capaz de crear una estructura muy impresionante pero no hay referencia a una verdad externa o realidad. No tiene principios de que esto es verdadero de una respuesta verdadera. Es un buen modelo de lenguaje pero no un buen modelo de realidad. Si lo usas como único modelo de la verdad probablemente te equivoques.
- En chatgpt no sabes quién produjo la respuesta pero con reinforcement learning puedes parchearlo un poco. No hay referencia de algunos resultados, no es un buen modelo de realidad. En google tienes la autoridad de la referencia al menos. ChatGPT no tiene un conjunto de principios éticos aunque han hecho un gran trabajo parcheándolo para hacer cosas «malas, horribles».
Programas simples los resuelve perfectos si le das el nombre del paquete, de la clase, del método y de la signatura. Te lo clava. Ahora bien, hay problemas más complejos que programa, pero lo corres y da error. Le dices que da error y no es capaz de solucionarlo. Eso me da que pensar en que realmente no sabe lo que está haciendo. Tiene limitaciones profundas en este sentido. Es muy bueno estructurando y organizando pero carece de profundidad. Encuentro que si hay muchos ejemplos de eso en internet es un modelo generativo increíble.
Del Proof of concept a la implementación en el mercado hay un trecho
Recuerda el demo del google assistant en el io del 2018 con la barber shop, fue un gran proof of concept, muy realista, pero de ahí a la implementación en el mercado hay un trecho.
Modelo – Cómo funcionan estos modelos y cómo está entrenado ChatGPT
Aplicaciones potenciales
Así como la IA aprende de uno (fui testigo de cómo las respuestas de ChatGPT se iban acomodando a mis intereses y perspectivas), uno también aprende de ella (vía Óscar Iván Pérez H de la Newsletter Quietud y Movimiento).