HILO MÍTICO Plataforma Shurmanos IA Team

Algol

Shurmano Leyenda
Nº Ranking
94
Shurmano Nº
9805
Desde
16 Abr 2024
Mensajes
4,806
Reacciones
77,089
Abro este hilo con idea de que tengamos un sitio donde colgar novedades en el campo de la IA: noticias, videos, herramientas relacionadas, trucos, nuevos modelos abiertos que van saliendo, etc.

image(30).webp
 
Última edición:
Pense que querias juntarnos para hacer una IA personalizada del foro
 
Para inaugurar el hilo, el nuevo o3:

 
Pense que querias juntarnos para hacer una IA personalizada del foro
Para eso habría que darle acceso para que leyera el foro completo, no le hacemos falta nosotros
 
Para eso habría que darle acceso para que leyera el foro completo, no le hacemos falta nosotros

La creamos para que lea y aprenda de lo dicho aqui, en 1 mes nos han detenido a todos :elrisas:
 
Pense que querias juntarnos para hacer una IA personalizada del foro
Queríamos probar con una herramienta de google que hace resúmenes y hasta podcasts, entonces la idea es que hiciera la historia del foro, con todo el lore. Para probar habría que elegir unos cuantos hilos para que aprendiera, tendrían que ser hilos donde ha participado mucha gente y mejor si son de movidas que han pasado en el foro, como el de la polémica cuando quitaron likes a la gente
 
A mi mencionarme cuando se puedan hacer videos porno en condiciones con la IA. :sisi1:
 
A mi mencionarme cuando se puedan hacer videos porno en condiciones con la IA. :sisi1:
Igual estos modelos de código abierto no están capados. No los he probado aún pero lo vemos. Prioridad 1
 
Comparativa de Grandes Modelos de Lenguaje (LLM)

1. ChatGPT

- Desarrollador: OpenAI
- Ventana de Contexto: Hasta 128,000 tokens
- Fecha Límite de Conocimiento: Octubre 2023 (V2 Junio 2024)
- Acceso Web:
- Aplicación Móvil:
- Niveles de Acceso: Gratuito, Plus , Pro
- Enlace: ChatGPT

2. Gemini
- Desarrollador: Google
- Ventana de Contexto: Superior a 1,000,000 tokens
- Fecha Límite de Conocimiento: Abril 2024
- Acceso Web:
- Aplicación Móvil: No
- Niveles de Acceso: Gratuito, Advance
- Enlace: Gemini

3. Claude
- Desarrollador: Anthropic
- Ventana de Contexto: Hasta 200,000 tokens
- Fecha Límite de Conocimiento: Abril 2024
- Acceso Web:
- Aplicación Móvil: No
- Niveles de Acceso: Gratuito, Pro
- Enlace: Claude

4. Llama- Desarrollador: Meta- Ventana de Contexto: Hasta 128,000 tokens- Fecha Límite de Conocimiento: Diciembre 2023- Acceso Web: No- Aplicación Móvil: No- Niveles de Acceso: Gratuito- Enlace: Llama
 
Una cosa que se podría hacer para enredar con los datos de Shurmanos, sería dumpear la base de datos a texto, y ponerla en Gemini Pro 1.5 o 2.0 que tienen ventanas de contexto enormes, y desde ahí hacer preguntas como cuáles son los hilos más destacados, o que saque una lista de foreros del Real Madrid o lo que sea. Seguro que hay programas que permiten copiar las páginas de una web como ésta (ahem) y hacer algo así.

Hace algún tiempo, la gente de 4chan hizo justamente eso, con los posts de /pol. Los resultados era lo que uno esperaría de tal insigne comunidad.
 
Última edición:
No me verás mucho por aquí.

Soy CyberPunk.

Apóstol anti IA y otras mierdas que esclavizaran a la humanidad que se deje.

:salu1: :salu1: :salu1: :salu1:
 
De cosas interesantes nuevas, algunas de las que me han llamado la atención han sido,
- El modelo QwQ, de Alibaba. Es un modelo al estilo de o1, con razonamiento cuando se hace la inferencia, hay una demo en Huggingface. Es un preview, supongo que la versión final irá mejor. La gracia del invento es que es 32b, y pesa 20Gb cuantizado. Está en la librería de ollama. La versión q4 debería caber en una tarjeta de vídeo de 24gb. Se ve que hay gente que lo está usando para código. ➡️ Demo de QwQ
- LM Studio, que hace tiempo que no usaba, ahora soporta Intel Arc. Las tarjetas de Intel de gráficos están tiradas de precio, y suelen tener más Vram que las de Nvidia por menos precio. No son compatibles con muchas cosas, y van más lento, pero dado que se puede usar LM Studio a través de una API compatible con la de OpenAi, es una opción barata para inferencia.
- Intel AI Playground, que va para las tarjetas de Intel de gráficos o para los Intel ultra. Sólo soporta unos cuantos modelos, y por lo que parece, no usan versiones cuantizadas, pero es muy fácil de usar, y es una manera muy fácil de usar Dreamshaper para imágenes de forma local, sin tener un hardware de gráficos espectacular. Tb permite chat y alguna otra cosa.
 
Última edición:
¿Queréis modelos? Tomad modelos hijos míos: https://huggingface.co/models Tenéis 1219829 modelos para elegir :elrisas:
Gracias shur. Además de tener modelos abiertos, para ejecutar en local o en la nube. El que quiera probar aplicaciones puede usar los Spaces:


De cosas interesantes nuevas, algunas de las que me han llamado la atención han sido,
- El modelo QwQ, de Alibaba. Es un modelo al estilo de o1, con razonamiento cuando se hace la inferencia, hay una demo en Huggingface. Es un preview, supongo que la versión final irá mejor. La gracia del invento es que es 32b, y pesa 20Gb cuantizado. Está en la librería de ollama. La versión q4 debería caber en una tarjeta de vídeo de 24gb. Se ve que hay gente que lo está usando para código. ➡️ Demo de QwQ
- LM Studio, que hace tiempo que no usaba, ahora soporta Intel Arc. Las tarjetas de Intel de gráficos están tiradas de precio, y suelen tener más Vram que las de Nvidia por menos precio. No son compatibles con muchas cosas, y van más lento, pero dado que se puede usar LM Studio a través de una API compatible con la de OpenAi, es una opción barata para inferencia.
- Intel AI Playground, que va para las tarjetas de Intel de gráficos o para los Intel ultra. Sólo soporta unos cuantos modelos, y por lo que parece, no usan versiones cuantizadas, pero es muy fácil de usar, y es una manera muy fácil de usar Dreamshaper para imágenes de forma local, sin tener un hardware de gráficos espectacular. Tb permite chat y alguna otra cosa.
Yo quería probar a ponerme 36Gb de RAM a ver si aunque me tarde horas podría experimentar con algún modelo tipo el q4 que dices. Está claro que no es operativo, pero la pobresa chico
 
Aplicación para crear audio realista (y con entonación) a partir de texto. Tiene un límite gratuito y luego una subscripción. Vale mucho la pena para oposiciones, estudiantes o para poner voces a videos:

 
Me quedo por aquí, aunque no entiendo nada.
Pero como dice @ElPatron , hay que estar preparado para cuando se pueda hacer porno de calidad al alcance del ratón. (y de la mano)
 
Me quedo por aquí, aunque no entiendo nada.
Pero como dice @ElPatron , hay que estar preparado para cuando se pueda hacer porno de calidad al alcance del ratón. (y de la mano)
Ací es, las fotitos y tal muy bien, los deepfakes aun les queda para estar conseguidos así que aver si evoluciona el tema y de paso acaba con el puterío del OF :sisi1:
 
LM Studio es una herramienta para correr LLMs en tu ordenador


Le estoy echando un primer vistazo, no hay que hacer nada especial para configurarlo, me lo he bajado, doble click y se instala solo. Al terminar me pregunta si quiero bajar un modelo que propone por defecto llama-3.2-1b. Le digo que sí y ya pruebo con una primera pregunta, han pasado 4 minutos desde que me lo descargué:

txt1.webp


El problema de esta respuesta es que está todo mal, es un sinsentido: Capablanca no se llamaba Mateo de nombre, no murió en España ... El texto sigue inventándose cosas, omitiendo los hechos más relevantes y de vez en cuando dando algún dato real.


Pensaba que el problema de las alucinaciones no era tan grave, pero si todas las respuestas que da este modelo son como esta no sé si sirve para algo. Voy a seguir probando con otros modelos y la misma pregunta para comparar el rendimiento.
 
Volver
Arriba