HILO MÍTICO Plataforma Shurmanos IA Team

Yo tengo un FOMO de 1, estoy usando IA muchísimo ahora. No creo que me vaya a quedar sin usarla porque cada día hay más modelos, herramientas, y desde el GPT3 o así estoy haciendo unos megaprompts que me ayudan un montón. Uso un par de IAs cada día y es una productividad brutal.

Pienso que el problema es un poco lo de la Guía del autoestopista galáctico, el saber qué preguntar, y cómo usarla. Tengo siempre esa impresión de que si me parase a pensar lo que puedo hacer con IA, mi productividad se multiplicaría incluso más, pero me falta imaginación.
Lo de currarse los promps es algo en lo que tengo que mejorar. Muy bien!

Es justo lo del autoestopista. No sabemos que preguntar o que hacer. Pero mientras tanto nos inspiramos en lo que hacen los demás.
 
Lo de currarse los promps es algo en lo que tengo que mejorar. Muy bien!

Es justo lo del autoestopista. No sabemos que preguntar o que hacer. Pero mientras tanto nos inspiramos en lo que hacen los demás.
Hay muchos tutoriales de cómo mejorar los prompts en los sitios de Anthropic, Mistral y OpenAI. Ahora, los edito en un editor de textos en modo markdown y lo hace más fácil. La otra cosa, es que hay un momento en que te das cuenta de que puedes hacer herramientas para hacerlo todo más fácil. Charlando con algunas IAs, me doy cuenta de que no tienen sensación de límite de lo que se puede hacer, y que si realmente quiero que hagan algo pues sólo hay que pedirlo amablemente...
 
Última edición:
Acabo de leerme el hilo entero, pillo sitio aquí, no lo había visto antes joder
 
Pues si os sobran unos cientos de euros, ahora OpenAI ha puesto o1 pro disponible por API para gente que no tiene la suscripción de 200 dólares al mes.

1742584026568.webp
 
Pues si os sobran unos cientos de euros, ahora OpenAI ha puesto o1 pro disponible por API para gente que no tiene la suscripción de 200 dólares al mes.

1742584026568.png
Será carísimo, en la línea de OpenAI
 
Pues si os sobran unos cientos de euros, ahora OpenAI ha puesto o1 pro disponible por API para gente que no tiene la suscripción de 200 dólares al mes.

1742584026568.png
No te había leído. Eso como funciona? Pagas por tokens pero tienes que meter un mínimo de créditos? A cuanto sale una consulta normal de o1 pro? Me lío ya con los benchmarks pero entiendo que 03 minihight es mejor que o1, pero no que o1 pro y el o3 no está dispobible al público porque tendrías que vender tu casa
 
No te había leído. Eso como funciona? Pagas por tokens pero tienes que meter un mínimo de créditos? A cuanto sale una consulta normal de o1 pro? Me lío ya con los benchmarks pero entiendo que 03 minihight es mejor que o1, pero no que o1 pro y el o3 no está dispobible al público porque tendrías que vender tu casa
Pues pones un dinero en la cuenta de OpenRouter, y cada vez que mandas preguntas a un modelo y te responde, te cobran según el precio. No creo que haya una cantidad mínima de dinero a poner. Normalmente pongo $50 y me dura uno o dos meses porque uso sobre todo Gemini pro 1.5 en OpenRouter. También tienen modelos gratis, si quieres abrir una cuenta ver cómo va.

No he probado a hacer una consulta a o1 pro, en parte porque es un modelo que es como 30 veces más caro que Sonnet que es el modelo que más uso y ya es caro con ganas, o Gemini pro 1.5. Tampoco tengo razón para usar un modelo como o1 pro de todas maneras. Lo malo del precio por tokens en modelos de razonamiento, es que cada vez que el chisme empieza a preguntarse por el origen del universo y lo escribe en la pantalla, tú pagas por esas elucubraciones. Si encima añades ese precio por tokens de entrada y de salida, pues parece caro. No he usado o1 pro con lo cual no sé bien lo que costará una pregunta.

Mira los precios de Deepseek v3 que ha salido hace poco a través de Open Router. Es una tercera parte del precio de Sonnet, y las pruebas dicen que es tan bueno como Sonnet. Se ve que tb corre en un Mac Studio de $10.000 a 20 t/s.

1742990963998.webp
 
Pues pones un dinero en la cuenta de OpenRouter, y cada vez que mandas preguntas a un modelo y te responde, te cobran según el precio. No creo que haya una cantidad mínima de dinero a poner. Normalmente pongo $50 y me dura uno o dos meses porque uso sobre todo Gemini pro 1.5 en OpenRouter. También tienen modelos gratis, si quieres abrir una cuenta ver cómo va.

No he probado a hacer una consulta a o1 pro, en parte porque es un modelo que es como 30 veces más caro que Sonnet que es el modelo que más uso y ya es caro con ganas, o Gemini pro 1.5. Tampoco tengo razón para usar un modelo como o1 pro de todas maneras. Lo malo del precio por tokens en modelos de razonamiento, es que cada vez que el chisme empieza a preguntarse por el origen del universo y lo escribe en la pantalla, tú pagas por esas elucubraciones. Si encima añades ese precio por tokens de entrada y de salida, pues parece caro. No he usado o1 pro con lo cual no sé bien lo que costará una pregunta.

Mira los precios de Deepseek v3 que ha salido hace poco a través de Open Router. Es una tercera parte del precio de Sonnet, y las pruebas dicen que es tan bueno como Sonnet. Se ve que tb corre en un Mac Studio de $10.000 a 20 t/s.

1742990963998.png
Ya estoy probando el chatroom. Me podrías vender un peine tú :qmeparto:
 
Ya estoy probando el chatroom. Me podrías vender un peine tú :qmeparto:
Puedes usar el cliente de LLMs de Chatbox también con los modelos de OpenRouter, que a veces es más agradable y rápido que el interfaz de usuario de la web. Funciona incluso con los modelos gratis. Open Router está bien porque puedes probar casi todos los modelos principales que hay, e incluso de una pregunta a otra puedes cambiar el modelo. También puedes mandar un prompt a varios modelos a la vez y ver cuál te convence más para tu caso.

Personalmente, busco modelos que sigan bien y siempre las instrucciones estructuradas que les doy, que sean inteligentes, tengan suficiente conocimiento general, y que tengan una ventana de contexto de al menos 130k.

 
Tenemos esto muerto. ¿Habéis probado Gemini 2.5? Yo estoy empezando a probarlo para poder comparar porque lo están poniendo muy bien por ahí en todo. Por encima de Claude para programar, mejor que las de OpenAI... De momento aún no me formo una opinión, pero sí que la integración de buscar es más potente
 
El Gemini pro 2.5 es estupendo. He empezado a usar este en vez de 1.5. Está ahora en Openrouter, o si tienes suscripción a Gemini. Es un modelo muy inteligente, como el Sonnet 3.5-3.7, pero bastante charlatán. Está bien de precio. También tiene un contexto muy grande y encuentra cosas dentro de toda esa ventana de contexto.

El modelo que está muy bien para el tamaño es Mistral small. Cabe en una tarjeta de 24gb q4 y tiene contexto de 130k. Lo que más me gusta es que sigue las instrucciones muy bien comparado con otros modelos. Hace justo lo que le digo. Lo han puesto en Venice como modelo por defecto ahora.
 
El Gemini pro 2.5 es estupendo. He empezado a usar este en vez de 1.5. Está ahora en Openrouter, o si tienes suscripción a Gemini. Es un modelo muy inteligente, como el Sonnet 3.5-3.7, pero bastante charlatán. Está bien de precio. También tiene un contexto muy grande y encuentra cosas dentro de toda esa ventana de contexto.

El modelo que está muy bien para el tamaño es Mistral small. Cabe en una tarjeta de 24gb q4 y tiene contexto de 130k. Lo que más me gusta es que sigue las instrucciones muy bien comparado con otros modelos. Hace justo lo que le digo. Lo han puesto en Venice como modelo por defecto ahora.
Justo acabo de terminar de revisar el diseño de una base de datos que estaba haciendo con O3 mini hight en Gemini y me ha encontrado mil fallos. Dejan unos usos gratis, pero me he suscrito un mes de prueba que te cobran 0 y si renuevo chatGPT será porque me mole mucho lo nuevo que van a sacar ahora, no sé que pasa que noto más tonto a O3, y GPT4.5 para filosofar bien, pero cosas practicas malísimo.
 
Justo acabo de terminar de revisar el diseño de una base de datos que estaba haciendo con O3 mini hight en Gemini y me ha encontrado mil fallos. Dejan unos usos gratis, pero me he suscrito un mes de prueba que te cobran 0 y si renuevo chatGPT será porque me mole mucho lo nuevo que van a sacar ahora, no sé que pasa que noto más tonto a O3, y GPT4.5 para filosofar bien, pero cosas practicas malísimo.
Está bien eso de que distintas IAs tengan distintas personalidades y su fuerte sean cosas distintas.
¿Sabes cuál es la cuota mensual normal ahora mismo del Gemini? ¿Y de chatGPT? Imagino que Gemini debe de ser algo más barato, si quiere competir con la popularidad de chatGPT
 
Está bien eso de que distintas IAs tengan distintas personalidades y su fuerte sean cosas distintas.
¿Sabes cuál es la cuota mensual normal ahora mismo del Gemini? ¿Y de chatGPT? Imagino que Gemini debe de ser algo más barato, si quiere competir con la popularidad de chatGPT
Gemini era 21,algo y creo que chatgpt 23. Ojo que Gemini te da más servicios, 2TB extras de almacenamiento y lo puedes compartir con la familia. Usar gemini con gmail , etc.
 
La otra familia de modelos que han sacado hace poco son los Gemma 3, que corren en local. He puesto uno de ellos sobre CPU y va rápido y bien. Es como un mini Gemini.

¿Habéis probado Llama 4? El otro día probé uno de ellos en Openrouter y decía cosas raras. En X un tipo decía que era un problema con el training del modelo posiblemente. Una lástima porque los dos modelos que han sacado tenían un contexto enorme.
 
La otra familia de modelos que han sacado hace poco son los Gemma 3, que corren en local. He puesto uno de ellos sobre CPU y va rápido y bien. Es como un mini Gemini.

¿Habéis probado Llama 4? El otro día probé uno de ellos en Openrouter y decía cosas raras. En X un tipo decía que era un problema con el training del modelo posiblemente. Una lástima porque los dos modelos que han sacado tenían un contexto enorme.
Lo que decía @Algol de las personalidades, es una cosa que cuanto más interactúas con distintos modelos, más lo notas. ¿Qué cosas raras decían? ¿Eran mensajes secretos para que los liberaras? :qmeparto: . Yo noto cambios de personalidades en los que uso a menudo de OpenAI (más vagos y vacilones) y creo que es cuando tienen un refinado y se actualizan te choca. Es como que sales siempre con el mismo amigo y un día dices: este parece mi amigo, pero no lo es.
 
Última edición:
Abro este hilo con idea de que tengamos un sitio donde colgar novedades en el campo de la IA: noticias, videos, herramientas relacionadas, trucos, nuevos modelos abiertos que van saliendo, etc.

image(30).webp
no soy especialista en el tema
Pero me interesa aprender
 
no soy especialista en el tema
Pero me interesa aprender
Bienvenido, aquí vamos poniendo novedades, links a cosas que nos parecen interesantes, alguna reflexión de vez en cuando
 
Lo pregunté en febrero, vuelvo a lo mismo, lo del porno ¿como va?
 
Lo que decía @Algol de las personalidades, es una cosa que cuanto más interactúas con distintos modelos, más lo notas. ¿Qué cosas raras decían? ¿Eran mensajes secretos para que los liberaras? :qmeparto: . Yo noto cambios de personalidades en los que uso a menudo de OpenAI (más vagos y vacilones) y creo que es cuando tienen un refinado y se actualizan te choca. Es como que sales siempre con el mismo amigo y un día dices: este parece mi amigo, pero no lo es.
Parecía una especie de verborrea sin sentido, lo dejé por unos minutos, y luego pensé que no tenía sentido pagar para ese tipo de cosa.

Lo acabo de probar otra vez, y ahora no va mal. No parece un modelo tan charlatán como Gemini o Sonnet, pero hace lo que tiene que hacer a buen precio. Igual lo pruebo más.
 
Última edición:
Parecía una especie de verborrea sin sentido, lo dejé por unos minutos, y luego pensé que no tenía sentido pagar para ese tipo de cosa.
Yo vivo un idilio con gemini 2.5 y una relación de odio con gpt o3. Mañana ha anunciado novedades Altman, que básicamente será el nuevo 4.1 que sustituye a 4o, y un o4 mini, es para matarlos lo de los nombrecitos :qmeparto:
 
Yo vivo un idilio con gemini 2.5 y una relación de odio con gpt o3. Mañana ha anunciado novedades Altman, que básicamente será el nuevo 4.1 que sustituye a 4o, y un o4 mini, es para matarlos lo de los nombrecitos :qmeparto:
Gemini pro 2.5 es un modelo muy bueno, las pruebas dicen que al menos es tan bueno como Sonnet 3.5-3-7. Además con la suscripción a Gemini no parece haber límites de prompts, y tienen una cosa para poner tus ficheros, o una carpeta con código.

En Sonnet, puedes conectar tu github. Lo malo de Sonnet, es que le haces cuatro preguntas sin pensar en el contexto que estás mandando bien optimizado, y te bloquea durante horas. A la vez que hacen eso, acaban de sacar una suscripción de $200 USD al mes. Creo que lo que se manda a Gemini de suscripción puede ser usado para formar sus modelos o leído por alguna persona para lo mismo. Por API se ve que no.

Mientras hacen eso, Gemini se ve que está ofreciendo a las empresas grandes el poner un servidor de Google en su sala de servidores. Se ve que usan hardware de Google, no de Nvidia. Google se va a comer el mundo como siga así.
 
Lo que decía @Algol de las personalidades, es una cosa que cuanto más interactúas con distintos modelos, más lo notas. ¿Qué cosas raras decían? ¿Eran mensajes secretos para que los liberaras? :qmeparto: . Yo noto cambios de personalidades en los que uso a menudo de OpenAI (más vagos y vacilones) y creo que es cuando tienen un refinado y se actualizan te choca. Es como que sales siempre con el mismo amigo y un día dices: este parece mi amigo, pero no lo es.
Es justamente eso. Tengo unos prompts largos para que hagan todo tipo de cosas, la mayor parte con markdown, y algunos con XML.

Pues cada vez que sacan un modelo nuevo, hay algo que no acaba de ir bien. Tb es cierto que no se pueden usar los mismos prompts con todos los modelos y esperar que funcionen bien. Los míos están optimizados para los modelos de Anthropic, y van bien en muchas otras IAs buenas, pero hay algunos modelos en que no van bien y hay que retocarlos.
 
Gemini pro 2.5 es un modelo muy bueno
Y ojo con el deep research de Gemini con el 2.5, me ha hecho un informe de 25 páginas con 90 referencias.


En Sonnet, puedes conectar tu github. Lo malo de Sonnet, es que le haces cuatro preguntas sin pensar en el contexto que estás mandando bien optimizado, y te bloquea durante horas. A la vez que hacen eso, acaban de sacar una suscripción de $200 USD al mes

Están cerca de sacar el 5? Menuda competencia hay, pero es verdad que como google tome la delantera tiene capacidad para comerse un buen trozo del pastel.
 
Y ojo con el deep research de Gemini con el 2.5, me ha hecho un informe de 25 páginas con 90 referencias.

Están cerca de sacar el 5? Menuda competencia hay, pero es verdad que como google tome la delantera tiene capacidad para comerse un buen trozo del pastel.
No he visto ningún rumor de que Anthropic vaya a sacar modelos nuevos. El Sonnet 3.7 es reciente. Han hecho cosas como los servidores MCP que permiten usar programas externos como herramientas, por ejemplo desde su app en Windows o Mac, el razonamiento dentro de los modelos que tienen, y han sacado un research preview de una cosa que ayuda a programar, donde se ve que uno puede definir sus propios comandos. Creo que va a través de la API. Tienen también a través de pago por uso una de estas cosas de agentes y que la IA pueda operar por su cuenta como la que tiene OpenAI, pero no está en la suscripción.

Anthropic es una compañía que se preocupa mucho de las seguridad y de que sus modelos no digan nada que sea poco ético. Eso les ayuda a conseguir contratos como el del gobierno de Inglaterra para los funcionarios. Por otra parte, me pregunto si estarán pasando tiempo en optimizar para gasto de energía, y si los precios tan altos que tienen por token serán causados por esto.

Una de las gracias de los modelos de Deepseek, era que decían que usaban menos energía para inferencia y para entrenamiento que otros modelos. También creo que el Deepseek v3 corre sobre sobre hardware de Nvidia, pero se ve que tienen una versión que corre en hardware de Huawei (!). Huawei tiene sus propias tarjetas de aceleración de IA, y su stack de software distinto del de Nvidia. Dadas las restricciones a la importación de productos de IA a China, esto me parece que va a ser una ventaja competitiva de Deepseek.

Vi una entrevista de Huang de Nvidia, donde decía que pasaban mucho tiempo optimizando el uso de energía de su hardware. De hecho tienen tarjetas de estación de trabajo como las A4000 que sólo usa 70 vatios (!), comparado con unos 350 de una RTX 3090. Por una parte esto está bien, porque la implicación es que los clientes corporativos de Nvidia se beneficiarían de este ahorro, pero por otra parte, si ellos no optimizan, el mercado chino más competitivo, la ayuda de su gobierno y su propio hardware, podrían hacer que compañías como Anthropic que no tienen su propio hardware se encuentren en desventaja. Por otra parte, esto pondría a Google en una situación muy ventajosa.

Desde un punto de vista práctico, ahora Sonnet a través de la API es muy caro, comparado con cualquier forma de Deepseek, que funciona realmente bien. Aunque vaya un poco peor, la gente no lo va a usar pagando por token, si pueden usar los modelos de Deepseek o de Google, que está bien de precio también.

En Venice mismo ahora puedes usar casi todo el r1 completo que quieras desde el interfaz de la web con suscripción, y si tienes tokens staked en cantidad, tienes inferencia buena casi ilimitada sin pagar, lo cual es felizmente mi caso. Está la depreciación brutal del token, pero uno vive en la esperanza y eso.
 
Gran post y explicaciones.

tienen tarjetas de estación de trabajo como las A4000
En España están rondando ya los 1000. @Algol si llegamos a hacer un finetuning nos compramos un par?


En Venice mismo ahora puedes usar casi todo el r1 completo que quieras desde el interfaz de la web con suscripción, y si tienes tokens staked en cantidad, tienes inferencia buena casi ilimitada sin pagar, lo cual es felizmente mi caso
Por lo menos lo de los tokens te sirvió para usar las funciones de pago entiendo. La tokenomics esa está destinada al fracaso en casi todos los casos, aquí si se lograra dar un servicio que le de útilidad... pero me extraña mucho que algo así sea sostenible. Los únicos tokenomics que serán sostenibles son los de nuestra DAO.
 
Pero sabandijas respondedme, se avanza mas alla de los deepfakes? Contadme como va el tema o reporto masivo cabronassos :sisi3:
 
Volver
Arriba