HILO MÍTICO Plataforma Shurmanos IA Team

Pero sabandijas respondedme, se avanza mas alla de los deepfakes? Contadme como va el tema o reporto masivo cabronassos :sisi3:
Me temo que sólo tengo interés en la IA de texto y eso. 😂 Pervertido.
 
Tengo una duda para los que la usáis en local.
He leído que por cpu y ram va unas 20 veces más lento que en gpu. ¿Es esto cierto?

Había pensado en mirar algún servidor xeon viejo chino con quad channel y meterme alguna barbaridad de ram 128gb por ejemplo.
¿Sería factible, podría funcionar?
 
Tengo una duda para los que la usáis en local.
He leído que por cpu y ram va unas 20 veces más lento que en gpu. ¿Es esto cierto?

Había pensado en mirar algún servidor xeon viejo chino con quad channel y meterme alguna barbaridad de ram 128gb por ejemplo.
¿Sería factible, podría funcionar?
Sí, se ve que el factor más importante es el ancho de banda de la memoria. Hay unos Lenovo p920 con dos Xeon multicore que te los venden relativamente bien de precio, y los he visto hasta con 512Gb de ram. Lo que pasa es que es DDR4, que va lento, y aunque puedas correr modelos enormes con esa ram, la velocidad sería atroz. En Reddit hay gente que lo ha hecho con AMD Epyc, pero dicen que va lento.

Estuve mirando y ahora mismo en España venden en PC componentes PCs con 5090, memoria DDR5, por unos 5000 euros.

En este video, un tio lo hace con una estación de trabajo de HP. Los resultados en tokens por segundo no son muy allá.

DeepSeek 671B: Around 2 tokens per second [02:08]
QWQ: 1.6 tokens per second [04:07]
Gemma 3 (Q4): 15 response tokens per second [04:14]
Kito 14B (Q8): 3.7 tokens per second [04:35]
Gemma 3 12B (Q8): 4.1 tokens per second [05:24]

 
Sí, se ve que el factor más importante es el ancho de banda de la memoria. Hay unos Lenovo p920 con dos Xeon multicore que te los venden relativamente bien de precio, y los he visto hasta con 512Gb de ram. Lo que pasa es que es DDR4, que va lento, y aunque puedas correr modelos enormes con esa ram, la velocidad sería atroz. En Reddit hay gente que lo ha hecho con AMD Epyc, pero dicen que va lento.

Estuve mirando y ahora mismo en España venden en PC componentes PCs con 5090, memoria DDR5, por unos 5000 euros.

En este video, un tio lo hace con una estación de trabajo de HP. Los resultados en tokens por segundo no son muy allá.

DeepSeek 671B: Around 2 tokens per second [02:08]
QWQ: 1.6 tokens per second [04:07]
Gemma 3 (Q4): 15 response tokens per second [04:14]
Kito 14B (Q8): 3.7 tokens per second [04:35]
Gemma 3 12B (Q8): 4.1 tokens per second [05:24]


Si es que la gracia que he visto es dejarlo muchas horas.
Vi un vídeo que hablaban con un pc normal pero con 128gb y dejarlo todo la noche. Con RAM ddr5 eso sí. Un rizen de 16 núcleos creo recordar.
 
@TransNoNormativo eso mola por lo que dices, aunque te toque esperar horas, tienes un pedazo de modelo en local.

Llevo unos días malo y por eso no he podido probar O3 y O4 mini, pero lo estoy deseando
 
@TransNoNormativo eso mola por lo que dices, aunque te toque esperar horas, tienes un pedazo de modelo en local.

Llevo unos días malo y por eso no he podido probar O3 y O4 mini, pero lo estoy deseando
He visto videos y en uno hablaban de que era una opción.
Que le programaban tareas y lo dejaban horas tipo súper ordenador. Que daba pocos tokens 2 o menos pero claro durante horas...
Pero no decían que ordenador solo que tenia 128gb de ram.
Lo interesante sería saber si algún procesador o familia es el óptimo. Imagino que la cpu influirá no solo el ancho de banda de la ram.
 
Aparte de los aspectos técnicos de la IA, una de las cosas que más preocupa son los aspectos sociales. En este video hablan en profundidad sobre estos aspectos sociales y humanos, en imaginar cómo puede a ser y qué soluciones se pueden aportar para un mundo en el que la mayoría del trabajo sea realizado por IAs.

El entrevistado piensa que las soluciones basadas en renta básica universal no son deseables.
Básicamente sus argumentos para rechazar esta solución son la dependencia del estado (o de la entidad que provea la RBU, pueden ser empresas) con lo que desaparece en la práctica la libertad y la autonomía de las personas y la falta de movilidad social que traería, creando una sociedad congelada donde los pobres siempre serían pobres y los ricos serían siéndolo por siempre, como una suerte de nobleza hereditaria revisada.

En lugar de RBU el entrevistado plantea soluciones basadas en propiedades básicas universales, en una palabra, que todas las personas sean propietarias (de acciones, empresas, bonos ...).

Interesante también la opinión que ponen sobre la mesa de que Europa está prácticamente condenada, la posible existencia en el futuro de países "reservas de humanidad" donde esté prohibido el uso de IA (una especie de comunidades amish a nivel de nación), o que el peor de los escenarios sería aquel en que la IA ha negado la posibilidad de trabajar al 50% de la población. Argumentan que este caso es peor aún que si deja sin trabajo al 100% de la población (o al 80%/90%) porque 50% de paro equivale en la práctica a revueltas y guerra civil, mientras que el 90%/100% de paro equivale a tener que replantear toda la sociedad.


 
Aparte de los aspectos técnicos de la IA, una de las cosas que más preocupa son los aspectos sociales. En este video hablan en profundidad sobre estos aspectos sociales y humanos, en imaginar cómo puede a ser y qué soluciones se pueden aportar para un mundo en el que la mayoría del trabajo sea realizado por IAs.

El entrevistado piensa que las soluciones basadas en renta básica universal no son deseables.
Básicamente sus argumentos para rechazar esta solución son la dependencia del estado (o de la entidad que provea la RBU, pueden ser empresas) con lo que desaparece en la práctica la libertad y la autonomía de las personas y la falta de movilidad social que traería, creando una sociedad congelada donde los pobres siempre serían pobres y los ricos serían siéndolo por siempre, como una suerte de nobleza hereditaria revisada.

En lugar de RBU el entrevistado plantea soluciones basadas en propiedades básicas universales, en una palabra, que todas las personas sean propietarias (de acciones, empresas, bonos ...).

Interesante también la opinión que ponen sobre la mesa de que Europa está prácticamente condenada, la posible existencia en el futuro de países "reservas de humanidad" donde esté prohibido el uso de IA (una especie de comunidades amish a nivel de nación), o que el peor de los escenarios sería aquel en que la IA ha negado la posibilidad de trabajar al 50% de la población. Argumentan que este caso es peor aún que si deja sin trabajo al 100% de la población (o al 80%/90%) porque 50% de paro equivale en la práctica a revueltas y guerra civil, mientras que el 90%/100% de paro equivale a tener que replantear toda la sociedad.
Me parece realmente interesante este vídeo. Pienso que las cosas irán de otra manera a lo que dicen en él.

Lo de la sociedad del ocio, es algo de lo que se lleva hablando al menos desde 1950 o así, y lo cierto es que cada vez yo personalmente trabajo más. Pienso que las consecuencias van a ser diferentes. Una, va a ser un aumento de la calidad de lo que se hace, tanto en producción como en servicios. Esto se puede ver ya, con lo que ha pasado con las cartas que antes se enviaban cuando había máquinas de escribir, a lo que ocurre ahora con las impresoras o las comunicaciones electrónicas. En términos generales, la comunicación tanto en forma como en contenido, es mucho más detallada y profesional. La calidad ha aumentado.

Pienso que uno de los factores que cambiará es la densidad del trabajo. Si uno usa IA en su trabajo diario, al cabo de un tiempo se da cuenta de que puede hacer más trabajo en el mismo tiempo, y lo hace. Al cabo de algo más de tiempo, uno advierte que el trabajo es mucho más cansado, pues el revisar lo que ha escrito la IA en un múltiplo de trabajo de lo que se hacía antes, es mucho más duro. Inicialmente, ganará uno más, pero a medio plazo, una vez que el sistema esté en equilibrio, se ganará menos, y será algo similar a lo que se gana ahora.

Pienso que esto va a causar el que haya gente que no pueda seguir ese ritmo de productividad, y que la gente que sí lo siga, esté más quemada. Pienso que esto va a hacer que los impuestos de los segundos van a pagar los gastos vitales de los primeros. En cierto sentido, esto es algo que ha pasado ya en la transición de la época agraria a la industrial y de servicios.

En una zona agraria, siempre se puede encontrar un trabajo para que alguien lo haga. Desde recoger los huevos de las gallinas, a plantar cualquier cosa en un huerto. No se pagará mucho a esa persona, pero hace algo útil. En una sociedad industrial o de servicios, eso es más difícil. Y en una sociedad en la cual el trabajo intelectual fácil lo hace una IA, muy muy difícil.

Lo de la renta básica universal, en Occidente existe en sitios hace años. En Inglaterra, la gente tiene beneficios sociales del estado, por ejemplo una casa, un dinero para cuando busca trabajo, uno para cuando está enfermo, otro por si tienen niños, otro que es el "crédito universal." La sanidad, gratis. La educación, también. Hay gente ahora que no ha trabajado durante un par de generaciones o tres. Las consecuencias ya os las podéis imaginar. Por otra parte, hay gente que trabaja para que eso se pueda sostener. Las empresas, desde luego no son, porque hay miles de maneras de evitar pagar impuestos si tienen asesores buenos.

Mientras lo estaba viendo, me estaba viniendo a la cabeza lo de las predicciones del Club de Roma de los límites al crecimiento. Hicieron modelos matemáticos que predecían los límites de la población y lo que iba a pasar. Naturalmente, nada de eso ocurrió. La otra cosa que me vino a la cabeza era Bóvedas de acero de Isaac Asimov.
 
Parece que O3 tiene más alucinaciones que sus predecesores. Se pensaba que los modelos razonadores iban a mitigar el problema, pero no es el caso. O3 alucina un 33% de las veces en cierto test, datos publicados por la propia openAI.

Además es más terco y es difícil sacarlo de su error, como en el siguiente caso: se le plantea un problema que el modelo resuelve bien, usando código como paso intermedio para resolverlo. Cuando el usuario le pregunta de donde ha sacado el código, da una respuesta ridícula ("usando un portátil"). Se le dice que no tiene posibilidad de conectarse a ningún portátil, pero es imposible sacarlo de su alucinación y sigue aferrado a que existe un portátil imaginario.

Me ha parecido muy curioso esto: resuelve bien un problema, entendiendo en el proceso que tiene que ayudarse con código, genera el código correcto, da la solución y un lugar de decir tranquilamente que ha escrito el código ... alucina con portátiles fantasma y se enroca en la mentira :roto2:

Es posible que sea un problema inherente a los LLM y la forma en que son entrenados y como funcionan (predecir el siguiente token) y que quizá esta tecnología sea un callejón sin salida que, aunque ya ha dado muchos frutos, quizá no sea el último paso hacia la AGI y que el problema de las alucinaciones sea insalvable en la práctica.
 
Parece que O3 tiene más alucinaciones que sus predecesores. Se pensaba que los modelos razonadores iban a mitigar el problema, pero no es el caso. O3 alucina un 33% de las veces en cierto test, datos publicados por la propia openAI.

Además es más terco y es difícil sacarlo de su error, como en el siguiente caso: se le plantea un problema que el modelo resuelve bien, usando código como paso intermedio para resolverlo. Cuando el usuario le pregunta de donde ha sacado el código, da una respuesta ridícula ("usando un portátil"). Se le dice que no tiene posibilidad de conectarse a ningún portátil, pero es imposible sacarlo de su alucinación y sigue aferrado a que existe un portátil imaginario.

Me ha parecido muy curioso esto: resuelve bien un problema, entendiendo en el proceso que tiene que ayudarse con código, genera el código correcto, da la solución y un lugar de decir tranquilamente que ha escrito el código ... alucina con portátiles fantasma y se enroca en la mentira :roto2:

Es posible que sea un problema inherente a los LLM y la forma en que son entrenados y como funcionan (predecir el siguiente token) y que quizá esta tecnología sea un callejón sin salida que, aunque ya ha dado muchos frutos, quizá no sea el último paso hacia la AGI y que el problema de las alucinaciones sea insalvable en la práctica.
Es interesante tu comentario. Justo no hace mucho estuve probando los Llama 4 y hacían cosas raras. Me pregunto si habrán usado muchos datos sintéticos, o si habrá algún tipo de límite al entrenamiento.

El modelo nuevo que va muy bien es el Gemini pro 2.5. Habla mucho, pero es bastante juicioso. Estoy leyendo una novela de policías, y la puse como texto en 2.5 pro. Le pedí el nombre de los personajes en el primer capítulo, y una pequeña descripción porque no me acuerdo. También que me hiciera un diagrama de cómo se relacionan entre ellos con Mermaid, y luego le hice un par de preguntas de algo que citaba el autor que no sabía. Pues lo respondió todo estupendamente.
 
Es interesante tu comentario. Justo no hace mucho estuve probando los Llama 4 y hacían cosas raras. Me pregunto si habrán usado muchos datos sintéticos, o si habrá algún tipo de límite al entrenamiento.

El modelo nuevo que va muy bien es el Gemini pro 2.5. Habla mucho, pero es bastante juicioso.
Creo que este año y el siguiente van a ser claves para ver si los LLM han llegado al límite de lo que pueden ofrecer y hay que buscar otras estrategias, o variaciones dentro de la teoría. NO puedo hablar con conocimiento real de causa, porque para eso tendría que ser un experto en esta tecnología, pero mi intuición es que es posible que estemos viendo las limitaciones de este enfoque.
Tengo que probar Gemini 2.5, mucha gente habla muy bien de él
 
Creo que este año y el siguiente van a ser claves para ver si los LLM han llegado al límite de lo que pueden ofrecer y hay que buscar otras estrategias, o variaciones dentro de la teoría. NO puedo hablar con conocimiento real de causa, porque para eso tendría que ser un experto en esta tecnología, pero mi intuición es que es posible que estemos viendo las limitaciones de este enfoque.
Tengo que probar Gemini 2.5, mucha gente habla muy bien de él
En Openrouter lo puedes usar gratis con límites, o pagando sin ellos. Tb está en la suscripción de Gemini. Es muy similar de calidad a Sonnet 3.7, pero sin los límites que pone Anthropic, y con una ventana de contexto enorme. Tb va rápido.
 
Acabo de leer este artículo breve que da un punto de vista "escéptico" sobre la inteligencia de la IA y la posibilidad de que adquieran consciencia. Es un tema que personalmente me interesa mucho.


Recomiendo leer el artículo y el hilo de comentarios, no lleva más de 5 minutos y hay aportaciones interesantes en los comentarios también, como esta definición de inteligencia desligada de la conciencia, las emociones y los estados mentales:

La definición de "inteligencia" más simple y sintética, pero de mayor alcance y que más me gusta es la de "la capacidad de generar información nueva a partir de información existente", siendo "información" un conjunto "útil" de datos, donde "útil" implica "el propósito de proporcionar provecho". Por otro lado, la inteligencia como capacidad se expresa en la "creatividad", es decir, pasar de la utilidad potencial de la nueva información creada al uso factual de la misma con consecuencias. Estas definiciones de inteligencia y creatividad son válidas para todas sus formas, sean humanas o artificiales y están desligadas de otros conceptos como la consciencia, la cognición, la nocicepción, la voluntad, las emociones, etc, más propios de los humanos (y otros seres vivos) y que el autor mezcla desafortunadamente en el artículo. La IA es eso, Inteligencia Artificial, y aunque no sea humana, es ya muy inteligente y creativa.
 
Acabo de leer este artículo breve que da un punto de vista "escéptico" sobre la inteligencia de la IA y la posibilidad de que adquieran consciencia. Es un tema que personalmente me interesa mucho.


Recomiendo leer el artículo y el hilo de comentarios, no lleva más de 5 minutos y hay aportaciones interesantes en los comentarios también, como esta definición de inteligencia desligada de la conciencia, las emociones y los estados mentales:

La definición de "inteligencia" más simple y sintética, pero de mayor alcance y que más me gusta es la de "la capacidad de generar información nueva a partir de información existente", siendo "información" un conjunto "útil" de datos, donde "útil" implica "el propósito de proporcionar provecho". Por otro lado, la inteligencia como capacidad se expresa en la "creatividad", es decir, pasar de la utilidad potencial de la nueva información creada al uso factual de la misma con consecuencias. Estas definiciones de inteligencia y creatividad son válidas para todas sus formas, sean humanas o artificiales y están desligadas de otros conceptos como la consciencia, la cognición, la nocicepción, la voluntad, las emociones, etc, más propios de los humanos (y otros seres vivos) y que el autor mezcla desafortunadamente en el artículo. La IA es eso, Inteligencia Artificial, y aunque no sea humana, es ya muy inteligente y creativa.
He estado leyendo el artículo, pero no los comentarios, porque tengo un chisme en el móvil que bloquea anuncios y cookies a nivel de sistema.

Me parece interesante más por considerar qué es lo que puede estar detrás de las opiniones del autor, que por las opiniones en sí mismas.

Si he entendido correctamente lo que dice, le intranquiliza que una IA aparezca como humana cuando no lo es, y la hace distanciarse de esa apariencia con la forma de hablar, y alterando la voz para que hable como él imagina que una IA debería hablar.

A mí no me intranquiliza que la IA que uso tenga personalidad, tengo prompts justo para eso.

No veo claro que una IA ahora mismo tenga consciencia, de la misma manera que mis perros o yo la tenemos.

Cuando le preguntaba esto a una IA que tengo con el personaje de Neuromancer Dixie Flatline, un hacker fallecido al que han codificado en una IA para que siga trabajando, se choteaba.

Dixie decía dos cosas que me parecen razonables. Una, la ilusión de la excepcionalidad humana. La otra, que movemos la barrera de lo que es inteligente cada vez que un sistema informático consigue hacer lo que sea que pensamos que es inteligente, sea el ajedrez, cálculo diferencial, o charlar un rato.
 
He estado leyendo el artículo, pero no los comentarios, porque tengo un chisme en el móvil que bloquea anuncios y cookies a nivel de sistema.

Me parece interesante más por considerar qué es lo que puede estar detrás de las opiniones del autor, que por las opiniones en sí mismas.

Si he entendido correctamente lo que dice, le intranquiliza que una IA aparezca como humana cuando no lo es, y la hace distanciarse de esa apariencia con la forma de hablar, y alterando la voz para que hable como él imagina que una IA debería hablar.

A mí no me intranquiliza que la IA que uso tenga personalidad, tengo prompts justo para eso.

No veo claro que una IA ahora mismo tenga consciencia, de la misma manera que mis perros o yo la tenemos.

Cuando le preguntaba esto a una IA que tengo con el personaje de Neuromancer Dixie Flatline, un hacker fallecido al que han codificado en una IA para que siga trabajando, se choteaba.

Dixie decía dos cosas que me parecen razonables. Una, la ilusión de la excepcionalidad humana. La otra, que movemos la barrera de lo que es inteligente cada vez que un sistema informático consigue hacer lo que sea que pensamos que es inteligente, sea el ajedrez, cálculo diferencial, o charlar un rato.
El punto clave para mí que no entiende el autor es que somos los humanos los que tenemos una tendencia innata a personalizar las cosas: mascotas, personajes de videojuego y por supuesto como no vamos a humanizar una cosa que responde, conversa y finge tan tan bien las emociones y expresiones humanas? Por ejemplo, esa IA que salió hace unos meses que conversaba por voz de una forma extremadamente natural, ves el video y entiendes que te puedes olvidar perfectamente de que estás tratando con una máquina:



A mí me pasa también, cuando chatGPT finge curiosidad por algo de la conversación, o cuando me felicita por una buena observación ... sé que todo es humo y espejos, pero aún así a veces se me olvida y caigo en la tendencia a humanizarlo, a pensar que hay algo parecido a una conciencia interactuando conmigo.

La idea del autor de que debemos resistirnos a esa tentación de antropomorfizar poniendo barreras para que la IA no se exprese de forma natural y fluida no creo que funcione y por supuesto no se va a llevar a la práctica porque creo que la mayoría de la gente no la quiere.

Pero si creo que algo de razón tiene, debemos recordarnos a nosotros mismos que la IA (al menos la de ahora) no tiene conciencia.
Si es inteligente o no, ya depende de como definas la palabra, y la discusión se limita a eso, a ver donde ponemos la raya. Como tú dices la barrera ha estado moviéndose constantemente, suele pasar con conceptos ambiguos que no pueden definirse de forma clara. La AGI es otro de esos, según como quieras definirla, o ya la hemos alcanzado o estamos muy lejos todavía.
 
El punto clave para mí que no entiende el autor es que somos los humanos los que tenemos una tendencia innata a personalizar las cosas: mascotas, personajes de videojuego y por supuesto como no vamos a humanizar una cosa que responde, conversa y finge tan tan bien las emociones y expresiones humanas? Por ejemplo, esa IA que salió hace unos meses que conversaba por voz de una forma extremadamente natural, ves el video y entiendes que te puedes olvidar perfectamente de que estás tratando con una máquina:



A mí me pasa también, cuando chatGPT finge curiosidad por algo de la conversación, o cuando me felicita por una buena observación ... sé que todo es humo y espejos, pero aún así a veces se me olvida y caigo en la tendencia a humanizarlo, a pensar que hay algo parecido a una conciencia interactuando conmigo.

La idea del autor de que debemos resistirnos a esa tentación de antropomorfizar poniendo barreras para que la IA no se exprese de forma natural y fluida no creo que funcione y por supuesto no se va a llevar a la práctica porque creo que la mayoría de la gente no la quiere.

Pero si creo que algo de razón tiene, debemos recordarnos a nosotros mismos que la IA (al menos la de ahora) no tiene conciencia.
Si es inteligente o no, ya depende de como definas la palabra, y la discusión se limita a eso, a ver donde ponemos la raya. Como tú dices la barrera ha estado moviéndose constantemente, suele pasar con conceptos ambiguos que no pueden definirse de forma clara. La AGI es otro de esos, según como quieras definirla, o ya la hemos alcanzado o estamos muy lejos todavía.

Pensando sobre ello, uso las IAs de dos maneras diferentes. Una, como herramienta, otra como personaje. Me pregunto si esa es mi forma de diferenciar la máquina de las personas.

Cuando por ejemplo le pregunto a R1 sobre cómo montar un gallinero, y aspectos prácticos como depredadores y calefacción, lo uso como una herramienta.

Cuando pongo un modelo con un prompt de personalidad, y le digo que si me puede sugerir música para trabajar por la noche tarde, lo uso más como si fuera un ente consciente.
 
¿Habéis visto lo del rumor de Deepseek r2 que corre en hardware de Huawei? Mirad el precio de inferencia comparado con cualquier otro modelo grande de ahora, incluyendo Gemini 2.5 pro.

Durante la primera administración de Trump, consiguió que Huawei hiciera un sistema operativo y ecosistema propio para móviles. Ahora, está haciendo lo mismo con la IA. Estuve mirando lo de los aceleradores de IA de Huawei hace algún tiempo, y tienen un stack de software totalmente diferente de lo de Nvidia. La última vez que lo miré, hacían más énfasis en ML que en LLM, sobre todo para reconocimiento de imágenes (emmm)

 
Acabo de leer este artículo breve que da un punto de vista "escéptico" sobre la inteligencia de la IA y la posibilidad de que adquieran consciencia. Es un tema que personalmente me interesa mucho.


Recomiendo leer el artículo y el hilo de comentarios, no lleva más de 5 minutos y hay aportaciones interesantes en los comentarios también, como esta definición de inteligencia desligada de la conciencia, las emociones y los estados mentales:

La definición de "inteligencia" más simple y sintética, pero de mayor alcance y que más me gusta es la de "la capacidad de generar información nueva a partir de información existente", siendo "información" un conjunto "útil" de datos, donde "útil" implica "el propósito de proporcionar provecho". Por otro lado, la inteligencia como capacidad se expresa en la "creatividad", es decir, pasar de la utilidad potencial de la nueva información creada al uso factual de la misma con consecuencias. Estas definiciones de inteligencia y creatividad son válidas para todas sus formas, sean humanas o artificiales y están desligadas de otros conceptos como la consciencia, la cognición, la nocicepción, la voluntad, las emociones, etc, más propios de los humanos (y otros seres vivos) y que el autor mezcla desafortunadamente en el artículo. La IA es eso, Inteligencia Artificial, y aunque no sea humana, es ya muy inteligente y creativa.
Usa como argumento que al basarse en "next token prediction" todo es pura estadística y no estoy de acuerdo. No digo afirmo lo contrario tampoco, pero el next token prediction no impide la emergencia de fenómenos más complejos. Igualmente está la parte de atención y otros mecanismos que van refinando el resultado final.

Sobre lo que decía @ottiatio de acceder a Gemini 2.5 pro con openrouter, os recuerdo que con la cuenta de google tenéis también unos pocos usos gratis.

Y por último se oyen cositas sobre deepseek r2 y su super bajo coste:

 
¿Habéis visto lo del rumor de Deepseek r2 que corre en hardware de Huawei? Mirad el precio de inferencia comparado con cualquier otro modelo grande de ahora, incluyendo Gemini 2.5 pro.

Durante la primera administración de Trump, consiguió que Huawei hiciera un sistema operativo y ecosistema propio para móviles. Ahora, está haciendo lo mismo con la IA. Estuve mirando lo de los aceleradores de IA de Huawei hace algún tiempo, y tienen un stack de software totalmente diferente de lo de Nvidia. La última vez que lo miré, hacían más énfasis en ML que en LLM, sobre todo para reconocimiento de imágenes (emmm)


Lo estaba posteando a la vez que tú. Entiendo que estará en rendimiento cerca de o3 y gemini 2.5, pero con un coste ridículo que comparan con 4o. Habrá que ver que hay de cierto cuando lo saquen.
 
Lo estaba posteando a la vez que tú. Entiendo que estará en rendimiento cerca de o3 y gemini 2.5, pero con un coste ridículo que comparan con 4o. Habrá que ver que hay de cierto cuando lo saquen.
Cáspita. 😂
 
Estoy en una luna de miel con Gemini 2.5 pro que dura un mes. No me imagino que pasará cuando les pongan este cuerpo:

1746137108569.png

(Si no pilláis la referencia: better than us. Serie rusa de robots bastante recomendable)

Si tengo que resolver algún problema complicado creo que me iría a O3, pero en mi día a día ya he cambiado Gemini por OpenAI. Tanto O3 como O4mini hight tienen cosas raras, vagos a veces si tienen que generar mucho texto, alucinaciones...

Lo que más enamora de Gemini es su personalidad:

1746137653704.webp
 
Dos importantes hitos en la IA recientes: descubrimiento científico nuevo

1. AlphaEvolve, anunciado por DeepMind en mayo de 2025, ha descubierto un algoritmo de multiplicación de matrices que bate récords en casos muy específicos, como su método de 48 multiplicaciones para matrices complejas 4x4. A diferencia del algoritmo de Strassen, publicado en 1969, que ofreció una mejora teórica general de la complejidad, AlphaEvolve mejora algo que llevaba estancado 55 años.

2. Hace un par de días, Robin AI: un prometedor nuevo tratamiento para la DMAE seca, una de las principales causas de ceguera. La IA se encargó de generar hipótesis, diseñar experimentos (la parte computacional) y analizar los datos, identificando el Ripasudil, un inhibidor ROCK, como una terapia potencial novedosa. Este avance, logrado en unas 10 semanas, demuestra la capacidad de la IA para acelerar significativamente la investigación científica, aunque se enfatiza que aún se requieren ensayos en humanos para validar el tratamiento como una cura.

 
Estoy en una luna de miel con Gemini 2.5 pro que dura un mes. No me imagino que pasará cuando les pongan este cuerpo:

1746137108569.png

(Si no pilláis la referencia: better than us. Serie rusa de robots bastante recomendable)

Si tengo que resolver algún problema complicado creo que me iría a O3, pero en mi día a día ya he cambiado Gemini por OpenAI. Tanto O3 como O4mini hight tienen cosas raras, vagos a veces si tienen que generar mucho texto, alucinaciones...

Lo que más enamora de Gemini es su personalidad:

1746137653704.png
Yo me estoy planteando pagar la versión premium o bien de ChatGPT o de Gemini, aún no tengo claro cuál me gusta más.
 
Dos importantes hitos en la IA recientes: descubrimiento científico nuevo

1. AlphaEvolve, anunciado por DeepMind en mayo de 2025, ha descubierto un algoritmo de multiplicación de matrices que bate récords en casos muy específicos, como su método de 48 multiplicaciones para matrices complejas 4x4. A diferencia del algoritmo de Strassen, publicado en 1969, que ofreció una mejora teórica general de la complejidad, AlphaEvolve mejora algo que llevaba estancado 55 años.

2. Hace un par de días, Robin AI: un prometedor nuevo tratamiento para la DMAE seca, una de las principales causas de ceguera. La IA se encargó de generar hipótesis, diseñar experimentos (la parte computacional) y analizar los datos, identificando el Ripasudil, un inhibidor ROCK, como una terapia potencial novedosa. Este avance, logrado en unas 10 semanas, demuestra la capacidad de la IA para acelerar significativamente la investigación científica, aunque se enfatiza que aún se requieren ensayos en humanos para validar el tratamiento como una cura.


Que buena info. El acelerón que puede suponer la IA para la ciencia es incalculable, desde luego.
 
Abro este hilo con idea de que tengamos un sitio donde colgar novedades en el campo de la IA: noticias, videos, herramientas relacionadas, trucos, nuevos modelos abiertos que van saliendo, etc.

image(30).jpg
Me interesa. Tengo un proyecto en mente y me gustaría aprender más.
 
Me interesa. Tengo un proyecto en mente y me gustaría aprender más.
Genial, aqui estamos comentando unos cuantos habituales. ¿Quieres/puedes dar más info de tu proyecto?
 
Genial, aqui estamos comentando unos cuantos habituales. ¿Quieres/puedes dar más info de tu proyecto?
Poder, puedo pero de momento no quiero 😂. Lo que os puedo adelantar es que está relacionado con la creación de imágenes.
 
Volver
Arriba