Blog

Novedades

Google renueva su aplicación para la cámara de Android

Jueves, 17 de abril de 2014

Es alternativa a la que ya tiene el smartphone o tableta; por ahora sólo está disponible con dispositivos con KitKat (Android 4.4)

 

Google publicó hoy su aplicación para controlar la cámara de un smartphone o tableta con Android. Es alternativa a la que incluye el dispositivo: la mayoría de los grandes fabricantes (Samsung, HTC LG, Sony, Motorola, etcétera) tiene una propia; esta es opcional.

Y sigue la larga línea de herramientas que Google despegó del sistema operativo y ofrecer como descargas en su tienda (el Calendario, por ejemplo, también está disponible de esta forma).

La aplicación, llamada Cámara, es gratis y está disponible en la tienda oficial , aunque por ahora sólo para dispositivos con Android 4.4 (KitKat). Con una interfaz minimalista y sin configuración: por ejemplo, en el modo para tomar fotos sólo permite elegir si estará activo el flash, si se usará la cámara principal o la frontal, o si mostrará una grilla para ayudar al encuadre de la imagen. Si se activan las funciones avanzadas permite un control mínimo de la exposición.

Google revela más detalles de Glass, sus anteojos inteligentes

Sábado, 23 de febrero de 2013

Google revela más detalles de Glass

 

Establecer la mejor ruta para llegar a destino, sacar una foto y grabar un video son acciones habituales para los usuarios de un teléfono inteligente, que de una forma u otra aún no se pueden llevar a cabo con las manos libres. Sin embargo, el proyecto Glass de Google busca sortear este impedimento al incorporar una cámara junto a una pequeña pantalla en el armazón de un anteojo.

Presentado en junio de 2012 en el encuentro de desarrolladores de la compañía, Glass busca ir más allá de la actividad lúdica del registro de fotos y videos en primera persona, y planea incorporar el reconocimiento de voz y el acceso a diversas funciones de uso extendido en los teléfonos móviles. Parte de las prestaciones se pudieron ver en el video que publicó Google, en donde los usuarios envían imágenes, reciben alertas y notificaciones, entre otras tareas, desde una pequeña interfaz que se despliega en una pantalla adjunta al armazón de las gafas.

Desde aquella presentación en el Google i/o, que incluyó el descenso de unos paracaidistas equipados con estos anteojos inteligentes, Glass sólo se encuentra disponible para los interesados en desarrollar aplicaciones y funciones adicionales al equipo, con un costo de 1500 dólares. Se espera que el modelo definitivo llegue al mercado para este año, de acuerdo a fuentes cercanas al desarrollo del dispositivo citadas por The New York Times .

Las funciones de Glass

Google Glass en principio estará disponible como un armazón con cámara y la pequeña pantalla, aunque la compañía evalúa realizar algunos modelos con los lentes de sol. Su conectividad a Internet será vía Wi-Fi o mediante BlueTooth para aprovechar la conexión de un teléfono móvil. Uno de sus puntos críticos será la autonomía de la batería, como señaló Babak Parviz, responsable del proyecto en una entrevista previa.

Las principales funciones del equipo estarán disponible mediante el movimiento de la cabeza, al tocar el marco del armazón o mediante comandos de voz, una de las principales funciones que Google busca impulsar en Glass.

Asimismo, tanto Maps como las alertas de Now y las videoconferencias de Hangouts serán algunos de los servicios de Google presentes en Glass.

Su diseño no cambió demasiado en apariencia desde su presentación formal el año pasado, e incluso varios de los ejecutivos de la compañía lo utilizan a diario, con el cofundador de la compañía Sergey Brin como uno de los usuarios más entusiastas, que no duda en lucirlas en cada una de sus apariciones públicas. De hecho, fue retratado por un usuario de Twitter mientras viajaba en el subterráneo de Nueva York mientras el ejecutivo utilizaba Google Glass.

Google lanzó una laptop de US$ 1.300 para competirle a Apple

Sábado, 23 de febrero de 2013

Google lanzó una laptop de US$ 1.300 para competirle a Apple

 

El campo de guerra entre Google y Apple se amplía. De los teléfonos inteligentes y las tabletas, pasó a cubrir también el terreno de las computadoras. Google presentó ayer el Chromebook Pixel, una laptop con pantalla táctil con la que piensa competir con las MacBooks de Apple.

La empresa del buscador dijo que su nuevo dispositivo, con chips de Intel y gráficos de alta resolución, está orientado a los usuarios de computadoras de alta gama. Intel. "La gente renunciará al MacBook Air por esto", dijo claramente Sundar Pichai, de Google, que calificó al nuevo Chromebook como una computadora "escandalosamente veloz".

Las nuevas computadoras de Google con conexión a Internet a través de redes locales (WiFi o por cable) fueron lanzadas en Estados Unidos y en Reino Unido por un precio de 1.299 dólares. Según Google, las que incorporen Internet móvil de la operadora estadounidense Verizon llegarán al mercado en abril a un precio de 1.449 dólares.

Sony anunció la Playstation 4

Sábado, 23 de febrero de 2013

Sony anunció la Playstation 4

 

Es, sin duda, una de las grandes noticias de 2013. O mejor: una no noticia. Sony convocó a la prensa internacional a reunirse el miércoles último en Nueva York para conocer su nueva PlayStation. Dos horas duró la presentación. Pero no mostró el equipo. Ni dijo cuándo estará disponible, salvo un vago fin de este año. Ni dio el precio.

En la prensa y las redes sociales se pasó de la intriga y la ansiedad al hastío, y al final, la burla. ¿Por qué Sony hizo algo así, dejando el camino para que Microsoft y Nintendo hagan un anuncio dentro de un tiempo con mucha más información?

Sobre todo porque ya lo había adelantado Kaz Hirai, presidente y CEO de Sony, hace un mes: dejarían que Microsoft hiciera su primer anuncio para luego hacer el propio, ajustando sobre la marcha los puntos débiles. Pero esto no sucedió.

No es que no sabemos nada de la PlayStation 4: simplemente no sabemos cómo es. Sí dijo Sony que tendrá un chip AMD x86 de ocho núcleos y 8 GB de RAM GDDR5 (lo que convierte a la PS4 en una suerte de PC muy potente), además de un disco rígido, una lectora de Blu-ray, puertos USB 3.0, Wi-Fi y salida HDMI.

Sí explicó, además, que el procesador gráfico es sumamente poderoso (capaz de llegar a 1,8 teraflops, para los atentos a los detalles técnicos). Lo demostró con un largo desfile de demos de videojuegos y vistas de personajes hechos en 3D con un nivel de realismo y detalle que sorprende.

Algunos títulos confirmados para la PS4: Killzone: Shadow Fall; Infamous: Second Son; Drive Club; The Witness; Deep Down; Destiny; Knack; Watch Dogs y Diablo 3, entre otros. Con ellos, una mala noticia: los juegos de PS3 no correrán en la nueva consola, aunque Sony dice estar explorando maneras de hacer que funcionen en el nuevo equipo.

Esto, para los juegos que alguien puede tener en su casa, ya que sí será posible correr juegos de PS1, PS2 y PS3 en la PS4, pero desde la tienda online de Sony, que proveerá un servicio basado en la nube, muy en boga por estos días. No se descarga el juego entero, sino que éste corre en los servidores de Sony y llega como un video en streaming (como los de YouTube) a la nueva consola.

La compañía también mostró el nuevo gamepad, un control de diseño clásico, pero que tiene un touchpad en el medio (como los de las notebook), además de parlante y conector de auriculares propio. Tiene, además, una luz que cambia de color, y que ayuda a los jugadores a identificarse con el personaje en pantalla. Junto con él, una barra con dos cámaras, que irán debajo de la pantalla, y permitirán el reconocimiento facial del usuario y detectar sus movimientos, al estilo del Kinect de Microsoft. Acorde con estos tiempos, la PS4 será un equipo social. Además de permitir el juego con varios participantes (presentes o remotos) con un botón del control será posible compartir la sesión de juego para que otros puedan sumarse y verla como espectadores, e informar de puntos y conquistas en las redes sociales, etcétera..

Monitores 3D de ASUS

Lunes 6 de septiembre de 2010

Monitores 3D de ASUS

 

Ahora mismo, el que no se suba al carro del 3D parece que pierde puntos (y algo más). Por eso, ASUS acaba de presentar un monitor compatible con esta tecnología, y diseñado especialmente para jugones: PG276H.

El tamaño de este monitor es de 27 pulgadas, funciona a 120Hz y alcanza una resolución máxima de 1.920 × 1.080 píxeles. El resto de características son interesantes: formato de pantalla 16:9, brillo de 400 cd/m2 y contraste dinámico que alcanza los 20.000:1, además de un tiempo de respuesta de 2 ms.

Obviamente, para poder jugar o ver películas en 3D será necesario un kit del estilo NVIDIA 3D Vision (aparato y gafas incluidas), pero todo indica que este monitor vendrá solo, por lo que nos tendremos que hacer con el resto de componentes aparte.

El PG276H estará disponible a partir del próximo mes de junio a un precio de 599 dólares.

Nvidia GeForce 3D,

3D VISION PARA USO DOMÉSTICO

Al igual que el cine o la televisión, el PC también se está pasando al 3D.¡Ya puedes disfrutar de cientos de juegos, fotos, películas y sitios web en tres dimensiones desde el ordenador Y, si quieres verlos en el mejor 3D posible, cuando vayas a comprar tu próximo PC 3D de sobremesa o portátil, asegúrate de que tenga tecnología NVIDIA® 3D Vision™.

D VISION PRO PARA PROFESIONALES

Las aplicaciones de diseño y animación de la próxima generación confían en las soluciones de gráficos profesionales 3D Vision™ Pro y Quadro® para obtener revisiones de diseño colaborativas en tiempo real, exploración de datos complejos y edición de video en 3D Cuenta con 3D Vision Pro para conseguir unos entornos 3D realistas y facilitar la comprensión de los conceptos.

Intel Core i7 es la nueva gama de microprocesadores de Intel

Domingo 29 de agosto de 2010

Intel Core i7

 

Intel Core i7 es la nueva gama de microprocesadores de Intel. Cambio de nombre que viene con muchos cambios internos, al igual que lo ocurrido con la plataforma Montevina y los anteriores Santa Rosa.

Intel Core i7 es el nombre oficial y definitivo de lo que antes denominábamos Nehalem. Se trata de un conjunto de microprocesadores con arquitectura de x86 de 64 bits, y por ahora todo lo que hay en el mercado es de cuatro núcleos, quad-core.

A continuación vamos a describir las características más importante de esta gama de procesadores, así como las ventajas sobre los anteriores Penryn.

Brilliantly fast

With faster, intelligent, multi-core technology that applies processing power where it's needed most, Intel® Core™ i7 processors deliver an incredible breakthrough in PC performance. They are the best desktop processor family on the planet¹.

You'll multitask applications faster and unleash incredible digital media creation. And you'll experience maximum performance for everything you do, thanks to the combination of Intel® Turbo Boost technology² and Intel® Hyper-Threading technology (Intel® HT technology)³, which maximizes performance to match your workload.

Procesador gráfico NVIDIA ION

Martes 6 de julio de 2010

PEQUEÑOS EN TAMAÑO. GRANDES EN RENDIMIENTO.

 

La nueva generación de gráficos NVIDIA® ION™ carga de energía tu PC ofreciendo 10 veces más rendimiento que los gráficos integrados. La gran capacidad multimedia de ION te brinda un universo diferente al navegar por Internet. Con este procesador, podrás ver vídeo a 1080p en sitios como YouTube HD o en discos Blu-ray. También podrás ejecutar juegos de PC tan populares como World of Warcraft o acelerar las mejores aplicaciones de vídeo y fotografía para conseguir así un rendimiento sorprendente al editar y convertir vídeos, utilizar funciones de reconocimiento facial en las fotos y realizar muchas otras tareas. Sólo ION pone a tu disposición toda la potencia de Windows 7 Home Premium, incluida su rica interfaz de usuario 3D. NVIDIA ION ofrece más potencia gráfica en tamaño reducido.

Principales ventajas

> Combina un rendimiento excepcional y larga duración de la batería en la nueva generación de netbooks

NVIDIA ION dotados de tecnología NVIDIA® Optimus*.

> 10 veces más rendimiento que los gráficos integrados.

> Permite ver vídeo a 1080p en sitios como YouTube HD o en discos Blu-ray.

> Capaz de ejecutar juegos de PC tan populares como World of Warcraft y Spore.

> La funcionalidad de Windows 7 Home Premium al completo.

10 mitos o verdades acerca del hardware

Domingo 30 de mayo de 2010

10 mitos o verdades acerca del hardware

 

La gente en gral tiene ideas o conceptos muy erróneos acerca de la informática espero q les sirva este decálogo con las dudas más frecuentes que vi en mi experiencia.



1.Dos, tres o cuatro núcleos? Qué es mejor?

La realidad es depende el uso que uno le va a dar. Para el uso diario, o sea internet, office, etc, con dos núcleos es suficiente, no es notoria la presencia de más núcleos. En aplicaciones más pesadas depende de si la aplicación aprovecha todos los core o no. Por ejemplo, la mayoría de los juegos aprovechan mejor una mayor velocidad de clock en lugar de más núcleos. Aunque esta tendencia está empezando a revertirse de a poco, como en el caso del GTA IV.

2.nVIDIA es mejor que ATI. ATI tiene problemas de incompatibilidad.

Eso es totalmente falso. No hay problemas de incompatibilidades, ATI es muy buena marca y no tiene nada que “envidiarle” a nVIDIA. La verdad es que debido a la competencia hay épocas en las que conviene una marca sobre la otra. Por ejemplo, la línea GeFORCE 8000 de nVIDIA era bastante mejor que la serie Radeon HD3000 de ATI. Cosa que se revirtió en la serie HD4000 vs la serie 9000 e incluso algunos modelos de la serie GTX 200 de nVIDIA. En este caso, es superior ATI especialmente si tenemos en cuenta el costo.

3.AMD es malo, Intel es mejor.

Es el mismo caso de ATI vs nVIDIA. Cada uno tiene sus épocas y hay líneas que son mejores que otras. Por ejemplo la línea Phenom de AMD fue un fiasco, pero la línea Phenom II es excelente. Lo mismo ha pasado en Intel. Los Pentium D dejaban bastante que desear, pero los Core 2 han sido buenísimos. Tal es así, que siguen en el mercado después de casi 3 años.

4.Quiero una placa de video de 2GB!!!!

Este es probablemente el mito más difundido y más errado en informática. La cantidad de memoria de una placa de video no es importante. Lo importante es el GPU, que es quien hace todo el trabajo. Hay muchos factores a tener en cuenta al elegir un GPU, cantidad de shaders, frecuencia, etc. Para simplificar esto, los fabricantes han desarrollado un sistema de numeración bastante similar tanto en nVIDIA como en ATI. Por lo general, los modelos de placa son de 4 dígitos, el primero de la izquierda indica la generación de la placa, el segundo la gama o la potencia y el tercero (en el caso de ATI) una sub-gama. Así es como una GeForce 8400GT, es inferior a una 7800GT. Porque si bien la 8400 es de una generación más nueva, es de una gama o potencia menor que la 7800. Otra cosa que hay que tener en cuenta es la velocidad de la memoria. El mismo modelo de una placa con memoria más rápida, funcionará mejor que otra con memoria más lenta aunque esta último tenga mayor cantidad de la misma. El caso más representativo de esto es la 8600GT. La versión de 256MB DDR3 rendía casi el doble que el modelo con 512MB DDR2.

5.Quiero ponerle 16GB de RAM para que vaya muy rápido

En primer lugar hay que tener en cuenta que los sistemas operativos de 32 bits no reconocen más de 3,25GB. Y aunque usemos un SO de 64 bits, son muy pocas las aplicaciones hoy en día que aprovecharían más de 4GB de RAM. Además hay que tener en cuenta que no siempre el agregar RAM significa que la PC vaya a funcionar más rápido. Depende de cada configuración de hardware, e incluso de software en particular.

6.Le pongo un gabinete con fuente genérica, total… Qué puede pasar?

La fuente es el componente más importante de una PC, es lo que alimenta a cada componente. Las fuentes genéricas no suelen entregar la potencia que dicen en sus etiquetas, por lo que uno está colocando algo inferior a lo que cree que está colocando. Las fuentes de marca sí entregan la potencia que dicen entregar, por lo tanto son mucho más confiables. No nos olvidemos que la fuente es el único componente capaz de quemar otros componentes, e incluso toda la PC.

7.Quiero un mother ASUS porque es el mejor.

Este es otro mito, la marca de los mothers. Si bien es cierto que hay marcas mejores que otras, por lo general la diferencia no es tanta como creemos. El componente principal de un mobo es le chipset, de los cuales hay pocos fabricantes. Los más conocidos son Intel, AMD, nVIDIA, VIA y SiS. De estos, los tres primeros fabrican los mejores chipsets. Pero, no todos los chipsets que fabrica Intel, por ejemplo, son buenos. Hay mejores y peores, lo mismo pasa con el resto de las marcas. De esta manera, un mother fabricado por ASUS, con un chipset AMD 780G, como por ejemplo el M4A78-EM, es casi igual que otro fabricado por ECS, con el mismo chipset, como el A780GM-A. Ambos son muy buenos mothers por tener un muy buen chipset, pero el ECS cuesta casi 40 dólares menos.

8.Ponele un buen micro, y mother lo que te alcance.

Este es otro gran error de concepto. El mother es el segundo componente más importante de una PC después de la fuente. Es lo que comunica la memoria con el micro y con todos los demás dispositivos de la PC. Si el mother es malo, por más que le metamos un súper micro, la PC tendrá un desempeño pobre. Es preferible siempre gastar unos pesos más en el mother y no tanto en micro. Depende también obviamente del uso que le vayamos a dar.

9.Quiero hacer un SLI/Crossfire, sirve?

Hacer SLI o Crossfire no sirve porque en la mayoría de los casos no rinde el doble de potencia, mientras que nosotros tuvimos el doble de gasto en comprar dos placas de video. Sin mencionar que hay que comprar un mother que soporte el SLI/CF y una fuente acorde. Siempre comprar una VGA que supere el rendimiento de un SLI/CF es más barato. Ejemplo: 1 HD4870 es más barata que 2 HD4670.

10.Los Celeron y los Sempron son una porquería, no valen la pena, no lo pongas.

Estos micros no son malos, simplemente son básicos. Están diseñados para tareas de ofimática.

Noticias de Pro Evolution Soccer 2011

lunes 10 de mayo de 2010

Noticias de Pro Evolution Soccer 2011

 

PES 2011 va a salir a fin de año y Konami ha decidido adelantarnos las primeras noticias sobre su simulación de fútbol.

Para empezar, lo que se busca fortalecer en Pro Evolution Soccer 2011 es la libertad de movimiento y el control del balón, sobre todo respecto de la dirección y la potencia de los pases y disparos. Difícil saber exactamente a qué se refieren sin un primer video del juego.

Sin embargo, se anuncia que PES 2011 se verá beneficiado con los cambios más ambiciosos realizados en la serie de Pro Evolution Soccer. Estos serían los principales cambios:

- Mejora del sistema de pases: libertad “absoluta” sobre los pases, tanto a nivel de la fuerza como de la trayectoria. Lo mismo para los disparos.

- Barra de disparo & resistencia: el nuevo indicador precisará la condición física del jugador. Hacerlo correr demasiado tendrá consecuencia sobre sus movimientos y un efecto negativo en sus estadísticas, como malos pases y pérdida de ritmo.

- Nueva IA defensiva: los defensas cubrirán mejor los espacios libres, mantendrán mejor su posición y harán más presión.

- Mejora de la animación: habrá movimientos más fluidos y naturales, sobre todo se personalizará varios movimientos, con y sin balón.

- Velocidad de juego: el ritmo de juego se adaptará a lo que sucede sobre el campo, con jugadores más activos en un contra ataque que en un tiro libre.

- Animación: se sumarán 1000 nuevos movimientos gracias a más de 100 horas grabadas de motion capture.

- Gestos técnicos: se podrá configurar el stick derecho para grabar los gestos técnicos preferidos y ejecutarlos con mayor facilidad.

- Master League Online: se podrá jugar contra otras personas del mundo con los equipos de la Master League.

Y como regalo, el primer teaser de PES 2011.

http://gameraldia.com/noticias-pro-evolution-soccer-pes-2011.html

NVIDIA GeForce 3D Vision

domingo 15 de febrero de 2009

NVIDIA GeForce 3D Vision

 

Estando en CES, nos reunimos con la gente de NVIDIA para ver su ultimo lanzamiento, los anteojos 3D Vision que permiten una experiencia de juego con vista en tres dimensiones que nunca antes habíamos experimentado.

3D Vision no son solo unos anteojos sino es una tecnología compuesta por cuatro elementos: por un lado debes de tener una tarjeta gráfica GeForce 8800 GTX o superior, un monitor LCD con frecuencia de refresco de 120Hz o superior, los anteojos 3D Vision de NVIDIA y los controladores adecuados. Como pueden ver, es un delicado equilibrio entre hardware y software.

Cada uno de los elementos tiene una función. Por el lado de la tarjeta gráfica, se necesita un poder de procesamiento tal ya que acelerar los videojuegos en modo 3D trae de la mano un impacto en rendimiento. De acuerdo a la misma gente de NVIDIA, acelerar en modo 3D es básicamente acelerar el doble de cuadros que en modo ‘2D’, uno para cada ojo.

En cuanto a los anteojos, estos los pudimos probar y no son esos típicos anteojos 3D con papel plástico rojo y azul y marco de cartón. Estamos hablando de una pieza de hardware mayor, que involucra circuiteria interior, lentes de plástico activos - cambian de tonalidad de acuerdo al campo de profundidad - y un puerto para ser cargados vía mini USB. Así mismo, se comunican con tu computador, con un receptor de radiofrecuencia - el cual se conecta vía USB - que ademas permite configurar ciertos parámetros y encender u apagar el modo 3D.

Los drivers en tanto, hacen un hack al API Direct3D que involucra una técnica que NVIDIA claramente no quiere ahondar en detalles. Ese es su negocio.

Por ultimo el monitor, el punto más complejo de todo esto, como les comentamos, debe tener una tasa de refresco de al menos 120Hz. Actualmente solo hay monitores de Samsung y ViewSonic con esta tecnología, y ambos dos, son de 22″ con una resolución de 1680×1050. Se espera que en el futuro esta característica se masifique, pero por le momento es la gran limitante de 3D Vision.

Primera Impresión

Es muy complejo hablar de 3D. Por un lado, es imposible reproducir la experiencia sin que tengas puesto los anteojos, por otro lado, es un termino completamente manoseado. Hemos visto infinitos intentos de lograr esto, desde monitores 3D - como los de Zalman - hasta revistas 3D - con técnicas de tinta roja y azul - pero en esta ocasión y siendo completamente sinceros, creo que NVIDIA lo logro. Esta técnica 3D no tiene nada que envidiarle al de las ultimas salas de cine con esta tecnología y a la hora de jugar es realmente entretenido.

Lamentablemente los anteojos cuestan U$200 y un monitor de 22″ con 120Hz aun cuesta lo mismo que uno de 24″ con una frecuencia menor. NVIDIA 3D Vision es sumamente interesante, pero lamentablemente no parece ser el momento para subirse al carro, al menos no aun.

www.chw.net

Samsung Blue Earth, el móvil solar

domingo 15 de febrero de 2009

Samsung Blue Earth, el móvil solar

 

por Juan Castromil

Samsung se lanza el primer terminal ecológico que se funciona con células fotovoltaicas

El Samsung Blue Earth es un móvil sorprendente, no sólo es un pequeño y atractivo teléfono táctil de diseño plano y redondeado, sino que además es ecológico. Seguramente el más ecológico del momento porque se puede recargar con energía solar

La ecuación es la siguiente:1 hora de sol = 24 minutos de conversación. La verdad es que no parece un mal resultado, pero también cuenta con alguna otra función de ahorro energético como… el “eco mode” que reduce el brillo y desactiva el Bluetooth. El Blue Earth está fabricado con plástico PCM reciclado y el embalaje, por supuesto, procede por completo de celulosa reciclada. Además de todo esto cuenta con un cargador catalogado como cinco estrellas en ahorro de energía ya que utiliza menos de 0,03 vatios de consumo en modo de espera.

Como curiosidad Samsung se a estirado con una función bastante tontorrona llamada “eco walk” que calcula la cantidad de emisiones de CO2 (con una original medida alternativa en numero de árboles) que has evitado al andar, ya que cuenta con un podómetro integrado. En breve lo tocaremos y veremos si es tan chulo como parece.

www.clipset.net

4870 X2 2GB OC Edition MSI

sábado 10 de enero de 2009

4870 X2 2GB OC Edition MSI

 

780MHz Core 2GB GDDR5 3600MHz Memory

Video Output FunctionDual-link DVI-I x2 TV-Out (via S-Video to Composite)/HDTV-outVGA (via DVI to D-Sub adaptor) HDMI (DVI to HDMI adaptor)

1. CrossFire PortYou can connect two R4870X2 cards to achieve supreme performance. ATI CrossFireX™ technology with quad GPU support in dual mode offers superior scalability so you can take your game to new heights.

2. Dual DVI with HDMI SupportR4870X2 has built-in audio codec chip inside the GPU, this feature allows DVI to convert to HDMI via a simple adapter without any internal/external SPDIF cable. Also, HDMI with 7.1 surround sound and xvYCC support allows the user to enjoy a wider range of color when connected to a capable HDTV.

3. 2x ATI Radeon HD 4870 GPUsTwo ATI Radeon™ HD 4870 GPUs (1600 Stream Processors in total) work in parallel on one PCB to deliver blazingly fast DirectX® 10.1 gaming performance.

4. 2GB GDDR5 MemoryOn R4870X2, every GPU has dedicated 1GB GDDR5 high-speed memory. Total 2GB and over 230GB/s incredibly high memory bandwidth provide brute power needed to tackle the most intense 3D game with all special effects and Anti-Aliasing turned on.

5. PCI Express 2.0 InterfacePCI Express® 2.0 allows up to twice the bandwidth of old PCI Express® 1.1 cards. Also, R4870X2 is compatible with any PCI Express® 2.0 motherboard, CrossFire™ supported motherboard is not required.

6. High Efficiency Thermal DesignR4870X2 uses 2-Slot thermal design, copper heatsink and big-size fan to dissipate heat generated from two GPUs and GDDR5 memory, allows graphics cards operate coolly and quietly.

7. Self-CrossFire ArchitectureR4870X2 has 2 ATI Radeon™ HD 4870 GPUs connected to each other by CrossFire™ port built into the PCB. The additional PLX chip is a 3-Way , 48 lanes PCI Express® Switch, which connects to two GPUs and PCI Express® interface of R4870X2 with PCI Express® x16 bandwidth.PLX chip allow two GPUs to communicate to each other with high-speed PCI Express® x16 bandwidth, and allows R4870X2 compatible with all motherboards with or without CrossFire™ Support.

global.msi.com.tw

NVIDIA GeForce GTX 295

viernes 9 de enero de 2009

NVIDIA GeForce GTX 295

 

La NVIDIA® GeForce® GTX 295 es la mejor tarjeta gráfica de doble chip del mundo.Pero las tarjetas gráficas ya no se limitan a procesar únicamente gráficos, la GeForce GTX 295 con tecnología NVIDIA® CUDA™ también ofrece Graphics Plus™. Esto significa que puedes conseguir efectos de física NVIDIA® PhysX™ acelerados en la GPU, juego con visión estereoscópica 3D, conversión de vídeos HD al formato de cualquier reproductor portátil en minutos y procesamiento ultrarrápido de imágenes con Adobe® CS4.

www.nvidia.com



Solicitar Servicio Web

1. Si quiere solicitar nuestros servicios puedes hacerlo llamando al Tel:0342 155211243.
2. Rellena nuestro formulario de Contactenos, y nosotros nos pondremos en contacto contigo.

Solicitar Servicio Tecnico

1. Si quiere solicitar nuestros servicios puedes hacerlo llamando al Tel: 0342 155049967.
2. Rellena nuestro formulario de Contactenos, y nosotros nos pondremos en contacto contigo.