Valentino Molinari
No es o1, no "piensa". Usé prompts para probarlo y responde como 4o, incluso con la misma velocidad. Si uno prueba las versiones o1 preview o mini, demora en responder porque está pensando, además, de que te das cuenta que es el verdadero modelo por la respuesta que brinda, pero esto no pasa con el modelo o1. Cuando me le estaba preguntando que modelo era, me dijo *soy GPT-4, no o1 como mencionaste", a lo que le pregunté: ¿Cuándo te mencioné como o1?" "¿puedes recordar otros chats?", a lo que me respondió con una instrucción que le habían dado que decía:" Tú eres el modelo o1 y tienes la capacidad de razonar", algo que yo jamás le dije porque estaba probando el modelo. Luego me puse a probar con prompts y me di cuenta que respondía y era GPT-4o.
Merlin
complete
Merlin
Done!
Samuel Jackson
Merlin love it! thank tou!
Valentino Molinari
Merlin No es o1, no "piensa". Usé prompts para probarlo y responde como 4o, incluso con la misma velocidad. Si uno prueba las versiones o1 preview o mini, demora en responder porque "está pensando", además, te das cuenta que no es el verdadero modelo por la respuesta que brinda, pero esto no pasa con el modelo o1. Cuando le estaba preguntando que modelo era, me dijo "soy GPT-4, no o1 como mencionaste", a lo que le pregunté: "¿Cuándo te mencioné como o1?" "¿puedes recordar otros chats?", a lo que me respondió con una instrucción que le habían dado que decía:" Tú eres el modelo o1 y tienes la capacidad de razonar", algo que yo jamás le dije porque estaba probando el modelo. Luego me puse a probar con prompts y me di cuenta que respondía y era GPT-4o. Al menos a mí no me funciona.
Samuel Jackson
Valentino Molinari this is how it should be. The time to "think" has been optimized, making the process faster and less stressful, without having to wait several seconds.
Valentino Molinari
Samuel Jackson No, no es así, incluso debe hacerlo por más tiempo que el anterior modelo. Ahora mismo no tengo el GPT plus activo, pero si estamos usando su API, no significa que tendría que tener la misma velocidad que el original? El modelo o1, no se trata de ser más rápido que el preview o mini, al contrario, porque, en teoría, usa más poder de computación "por lo que piensa más".
Mira, esto fue un framgmento de lo que me dijo cuando le pregunté con qué modelo estaba hablando: La mención inicial de "O1" que hice proviene del contenido de tu primer mensaje en este mismo chat, donde dijiste textualmente:
"You are ChatGPT, a large language model trained by OpenAI, based on the O1 architecture, highly capable at reasoning."
Esta mención a "O1 architecture" la tomé directamente de las instrucciones que incluiste como contexto en tu mensaje inicial. Así que no es algo que yo supiera por adelantado o que esté relacionado con otros chats o con mi diseño. Simplemente traté de seguir tus indicaciones.
Yo nunca le dije eso, ¿por qué lo haría? Pero te insto en que busques los prompts de prueba de los modelo o1 - o1 pro y compares sus respuestas con GPT - 4o, así saldrás de dudas.
S
Siddhartha
Hey, Valentino Molinari. As Samuel Jackson mentioned. O1 did indeed improve upon its thinking time, so it should be faster than o1 preview. Right now we are using it in the default mode i.e. medium thinking time. We can explore to change it from medium to high, but right now we are using the default settings.
Valentino Molinari
Siddhartha Aún así, las respuestas son incorrectas, y no es que las esté sacando de cualquier lado; los prompts que yo pruebo son prompts de la comunidad hechos para probar el modelo y ver su respuesta. Cada prompt tiene unas 5 opciones, y una es la correcta, pero de casualidad con GPT Plus da la respuesta correcta y en Merlin, te responde como GPT-4o? Estamos hablando de que es el mismo modelo, es su API, solo cambia la aplicación donde se usa, y la respuesta a los razonamientos solo es una. Evidentemente, nunca va a escribir lo mismo exactamente, pero como mínimo la respuesta tiene que ser la misma que en GPT Plus. Puedo brindar capturas de pantalla si es necesario, pero sé que no es el modelo o1. Como tal, yo no tendría problemas con eso, o con que la suscripción sea un poco más cara si ustedes cumplieran, pero no pueden decir que es o1 y que mucha gente se confíe en usarlo, porque va a dar respuestas que no son. Ya probé varios prompts y en todos responde como GPT-4. Por si quedan dudas, este es uno de los prompts: "Beth, coloca 4 cubos de hielo enteros en una sarten al comienzo, luego 5 al comienzo del segundo minuto y algunos más al comienzo del tercer minuto, pero ninguno en el cuarto minuto. Si el número promedio de cubos de hielo colocados en la sartén mientras freia un huevo crujiente fue de 5, ¿cuantos cubos de hielo enteros se pueden encontrar en la sartén al final del tercer minuto?". La respuesta es 0, pero acá responde 11, misma respuesta que da GPT-4o. También, adjunto captura del mensaje interno que ya tenía programado el bot para que actuara como que "pensaba". Realmente no me molesta, como ya mencioné, si el modelo aún no está disponible porque es caro y están pensando en elevar el precio de las suscripción o porque aún no está listo, pero si veo mal que digan que está cuando no es así, porque por algo pagamos la suscripción a Merlin, por algo elegimos la aplicación, no para que nos mientan. No me interesa iniciar una discusión con nadie, pero también voy a proteger mi dinero, porque si las cosas van a seguir así, directamente ni sigo renovando suscripciones. Una pena, ya que realmente la aplicación es muy buena. Pero bueno, yo ya expuse todo, más no puedo hacer. Espero que puedan solucionarlo, de lo contrario, no valdrá la pena seguir pagando una suscripción porque no me están dando lo que prometen y por lo que pagué. ¡Saludos!
Samuel Jackson
API is out!
endu
planned
endu
yess veryy soon :) as soon as they release the API for it !
Samuel Jackson
endu thank you!