top of page
Foto del escritorjeanbernard rolland

17. La historia de ChatGPT


OpenAI es una empresa de investigación en IA con sede en San Francisco, California.

Fue fundada en diciembre de 2015 como una organización sin fines de lucro por Elon Musk, Sam Altman, Greg Brockman, Ilya Sutskever, Wojciech Zaremba y John Schulman, con el objetivo de desarrollar y promover IA amigable y beneficiosa para la humanidad.

OpenAI inició su trayectoria como una organización sin fines de lucro, impulsada por la creciente preocupación por los avances en IA y su posible impacto en la sociedad.

Elon Musk, uno de los fundadores de OpenAI, ha sido un defensor destacado de la seguridad de la IA y ha expresado su temor a que pueda volverse peligrosa si no se maneja adecuadamente


Desde 2015, ha habido varios avances significativos en el campo de la inteligencia artificial generativa (IA generativa).

Estos avances han llevado al desarrollo de varias soluciones basadas en modelos de lenguaje generativos que han demostrado ser útiles en diversas aplicaciones.

Sin embargo, la llegada de ChatGPT en 2022 ha acelerado aún más el progreso en este campo y ha capturado la atención de la comunidad.

Antes de ChatGPT, ya existían modelos de lenguaje generativos como GPT-2 y GPT-3, que habían demostrado la capacidad de generar texto coherente y relevante.

GPT-2, o Generative Pre-trained Transformer 2, es un modelo de lenguaje desarrollado por OpenAI. Lanzado en 2019, es conocido por su capacidad para generar textos coherentes y fluidos. Con 1.5 mil millones de parámetros, puede realizar tareas como traducción, generación de código e incluso escribir historias completas. Sin embargo, su versión completa no fue lanzada debido a preocupaciones sobre su potencial para difundir desinformación y noticias falsas

GPT-3, fue Lanzado en 2020, es considerado uno de los modelos de lenguaje más potentes hasta la fecha. Con 175 mil millones de parámetros, supera significativamente a su predecesor GPT-2.

Estos modelos se entrenaron en grandes conjuntos de datos y fueron utilizados en diversas tareas, como la generación de contenido, la traducción automática y la respuesta a preguntas. Estos modelos sentaron las bases para el desarrollo de soluciones actuales. ChatGPT introdujo una mejora significativa en comparación con sus predecesores.

Con su lanzamiento en 2022, se destacó por su capacidad para mantener conversaciones más fluidas y naturales, y por ofrecer respuestas detalladas y precisas en una amplia gama de temas.

Esto se logró mediante el ajuste fino del modelo utilizando técnicas de aprendizaje supervisado y de refuerzo, lo que permitió que ChatGPT se adaptara mejor a las interacciones conversacionales.

ChatGPT se basa en los modelos GPT-3. 5 y GPT-4 de OpenAI, y ha sido ajustado para aplicaciones de conversación utilizando técnicas de aprendizaje supervisado y de refuerzo. Para el recuerdo, GPT-4 has a trillion parameters

ChatGPT se lanzó como un prototipo el 30 de noviembre de 2022 y llamó la atención por sus respuestas detalladas y respuestas articuladas en muchos campos del conocimiento.

Sin embargo, se ha identificado como una desventaja significativa su propensión a proporcionar respuestas incorrectas de manera confiada. A ellas se le dicen las “halucinaciones” de chatgpt

En 2023, después del lanzamiento de ChatGPT, se estimó la valoración de OpenAI en 29 mil millones de dólares.

La llegada de los chatbots ha aumentado la competencia en este espacio, acelerando el lanzamiento del chatbot Bard de Google (basado inicialmente en LaMDA y luego en PaLM) y el modelo base LLaMA de Meta, a partir del cual otros están desarrollando chatbots.

GPT-4 tiene algunos limitantes.

Está limitado por un extenso conjunto de "barandillas" hechas por humanos que buscan evitar que sea ofensivo.

No actualiza su conocimiento en tiempo real.

Su dominio de idiomas distintos del inglés es limitado.

No analiza audio ni video.

Todavía comete errores aritméticos que una calculadora evitaría.

Sin embargo, ninguno de estos problemas es inherente al enfoque. Más desafiante es el hecho de que GPT-4 todavía no es confiable. Al igual que ChatGPT, "alucina", inventando hechos e incluso respaldando esos hechos con fuentes inventadas. Peor aún, lo hace con la alegre confianza de un mentiroso habitual.

Al igual que ChatGPT, puede ser inconsistente en sus respuestas cuando se le pregunta con varias preguntas sobre el mismo asunto. Eso sucede porque no tiene un conjunto de creencias y valores subyacentes; en cambio, responde a los aportes humanos en función de una combinación oscura de sus datos de entrenamiento y su objetivo interno formulado matemáticamente.

Por estas razones, también exhibe sesgos generalizados: sería imprudente confiar en sus respuestas sin una verificación cuidadosa. Los programadores humanos que usan una herramienta de estilo GPT, llamada GitHub CoPilot , para producir fragmentos de código de software, revisan y prueban cuidadosamente el software antes de incorporarlo a sus programas escritos a mano. Sin embargo, cada generación de la tecnología comete menos errores y podemos esperar que esta tendencia continúe.


A diferencia de los humanos, los modelos GPT no tienen cuerpo. Los modelos se basan en información de segunda mano en su entrada, que puede estar distorsionada o incompleta. A diferencia de los humanos, los modelos GPT pueden simular empatía pero no sentirla. Si bien la empatía simulada tiene sus usos (piense en un adolescente que necesita un hombro para llorar a las 2 am en la zona rural de Kansas), no es real.

Si bien los modelos GPT pueden parecer infinitamente creativos y sorprendentes en sus respuestas, no pueden diseñar artefactos complejos. Quizás la forma más fácil de ver esto es plantear la pregunta: ¿Qué componentes de GPT-4 fueron diseñados por un modelo generativo? El estado del arte en IA nos enseña que GPT-4 se construyó escalando y jugando con modelos y métodos diseñados por humanos que incluyen BERT de Google y ELMo de AI2 . Steven Wolfram proporcionó una descripción general accesible de la tecnología aquí .

Independientemente de los detalles, está claro que la tecnología está a años luz de poder diseñarse a sí misma. Además, para diseñar un chatbot, debe comenzar formulando el objetivo, los datos de capacitación subyacentes, el enfoque técnico, los subobjetivos particulares y más. Estos son lugares donde se requiere experimentación e iteración.

También debe adquirir los recursos relevantes, contratar a las personas adecuadas y más. Por supuesto, todo esto fue hecho por humanos talentosos en OpenAI. Como argumenté en MIT Technology Review , formular y ejecutar con éxito tales esfuerzos sigue siendo una capacidad claramente humana.

Lo que es más importante, los modelos GPT son herramientas que funcionan a petición nuestra. Si bien son notablemente poderosos, no son autónomos . Responden a nuestras órdenes.

Considere la analogía con los autos sin conductor. En los próximos años, los autos sin conductor serán más versátiles y cada vez más seguros, pero los autos no determinarán el destino al que nos dirigimos, esa decisión pertenece al ser humano. Del mismo modo, depende de nosotros decidir cómo usar los modelos GPT, para edificación o para desinformación.

El gran Pablo Picasso dijo célebremente: “Las computadoras son inútiles. Solo te dan respuestas”.


9 visualizaciones0 comentarios

Entradas recientes

Ver todo

コメント


bottom of page