Entiendo la pregunta pero es que no es cuestión de la eficiencia de los chips porque la misma evolución de estos dicta que tiene que reducirse la temperatura por cojones para que el procesador rinda. Si está demasiado caliente, no funciona. Por eso los disipadores gigantes y tal.M. Corleone escribió: ↑28 Ene 2025 11:30Desde el absoluto desconocimiento en este tema (os leo con interés), ¿creéis que llegará un momento en que obliguen a que los procesadores gasten menos y sean más eficientes, como ha pasado con los coches?wendigo escribió: ↑28 Ene 2025 11:26Creo que lo ha dicho golon, la historia aquí no es que DeepSeek sea mejor, sino que al parecer es mucho más eficiente, sobre todo a la hora de entrenarla. Si el resto de IAs siguen la tendencia de la IA china entonces las estimaciones de hardware necesario para entrenarlas en los próximos años imagino que habrán bajado significativamente.
También hay que decir que acaba de salir la nueva gama de gráficas Nvidia para consumidores y la verdad es que en cuestión de mejora, no han mejorado nada. Lo único que han hecho es sacar unas gráficas mucho más gordas, que consumen más, y evidentemente mejoran en rendimiento, pero no en eficiencia.
Encima ahora tienen en Intel un nuevo competidor serio, que ha sacado unas gráficas de gama media bien majas.
Quiero decir que todo el mundo está hablando de centros de datos gigantescos, que consumen trillones de kilowatios, y que el desarrollo de la IA requerirá mucha energía... ¿veremos dentro de X lustros como las administraciones públicas dicen "esto solo lo podéis hacer gastando tanto por bite procesado" o algo así?
Desde el niputaideismo, pregunto.
Evidentemente ya vamos muy tarde para regular, pero el problema no es la eficiencia de los chips, los chips son una puta maravilla de la CENCIA.
El tema no es que existan motores de coches muy potentes para que los use la gente de la calle, el problema es que hay empresas que están usando cientos de lambos puestos en fila para calentar una pizza.