🎉 Estamos de vuelta! Después de 7 años sin estar en línea, MarlexSystems ha regresado • Lee más aquí

NVIDIA nos muestra el poder del Tegra 3

Por Alan Rodriguez
Publicado el 31 de mayo del 2011
2 minutos de lectura • 216 palabras

Este artículo está probablemente obsoleto

Este artículo fue publicado hace más de 10 años (el 31 de mayo del 2011, para ser exactos). La información contenida puede estar muy desactualizada o ya no ser relevante.

El artículo existe como archivo de este sitio y de la antigüedad del mismo. Este blog existe en el Internet desde el 2007!

Algunos o todos los enlaces de este artículo pueden haber sido removidos o estar rotos debido a la antigüedad del mismo. Te pedimos las disculpas por cualquier inconveniente que esto pueda causar.

Si en su momento NVIDIA ya nos había sorprendido con el poder de sus procesadores móviles Tegra y Tegra 2, ahora van a repetir esta hazaña con el primer demo de su nuevo procesador NVIDIA Tegra 3, el primer procesador móvil de 4 núcleos que será lanzado a finales de 2011 y que ya se presenta como el futuro de los videojuegos móviles.

Imagen de demostración del NVIDIA Tegra 3

El nuevo procesador NVIDIA Tegra 3 -conocido también por su nombre clave “Project Kal-El”- será también la primera unidad de procesamiento para dispositivos móviles que sea capaz de procesar y reproducir cualquier clase de imágenes en tercera dimensión, algo hasta estos momentos imposible hasta en los smartphones y tablets de gama alta.

Entre las principales características que se destacan para el nuevo Tegra 3 es el soporte para el efecto de iluminación dinámica, una técnica bastante extendida en los videojuegos actuales; otra novedad es la mejora de la inteligencia artificial en el aspecto de la lógica de acciones, lo cual permite procesar secuencias de acciones según las interacciones del usuario de una forma más ordenada y “natural”.

Por último te invitamos a que disfrutes del demo en video que la gente de NVIDIA ha preparado para demostrar el poder de su nuevo procesador móvil:

Fuentes: Código Geek | Blog de NVIDIA (en inglés)

Continúa Leyendo