viernes, 29 de mayo de 2009

Microsoft Touch Pack

Quizás la característica estrella de Windows 7 sea el soporte para pantallas táctiles. El controvertido rediseño de la barra de tareas forma parte de una serie de modificaciones a lo largo y ancho de los programas incluidos con Windows 7 dirigidas a optimizarlos para entornos táctiles. Todas las aplicaciones incluidas con Windows 7, desde el Explorador de Windows hasta Wordpad o Paint, han sido revisadas bajo esta luz.

Pero, ¿qué pasa con las aplicaciones externas? Microsoft sabe que la implantación del soporte táctil en ellas va a ser lenta, como sucede siempre con las nuevas tecnologías. Por eso, ha presentado hoy el Microsoft Touch Pack, un paquete de seis aplicaciones interactivas dirigidas a demostrar las posibilidades de la pantalla táctil, quizás con la intención de aumentar la demanda de aplicaciones similares, y acelerar así su desarrollo.

Varias aplicaciones del paquete están basadas en las demos de Microsoft Surface, el prototipo de ordenador táctil presentado hace tres años por la compañía de Redmond. Entre ellas se cuentan una versión de Microsoft Virtual Earth, una aplicación de confección de collages fotográficos, un salvapantallas interactivo que simula un acuario, y tres juegos.

En una primera fase, Microsoft Touch Pack estará disponible sólo con los ordenadores de marca que incorporen pantallas táctiles, pero Microsoft no descarta ponerlas más tarde al alcance de otros usuarios si la demanda es suficiente. En cualquier caso, obviamente, sólo funcionarán en equipos que ejecuten Windows 7 e incorporen pantalla táctil.

Más información: http://windowsteamblog.com/blogs/windows7/archive/2009/05/27/introducing-the-microsoft-touch-pack-for-windows-7.aspx (en inglés)

jueves, 28 de mayo de 2009

Exposición manual en vídeo en la Canon EOS 5D Mark II

Hace un par de meses, Canon sorprendió a propios y extraños con el lanzamiento de la EOS 5D Mark II. Esta nueva cámara, además de mantener la excelente calidad de imagen de Canon gracias a su procesador DiGIC 4, añadía la posibilidad de grabar vídeo en alta definición a 1080p. Lo que es muy interesante en una cámara con objetivos intercambiables que cuesta la tercera parte de una cámara de vídeo de alta definición profesional. Esto abrió un nuevo horizonte a los productores independientes, necesitados de máquinas potentes y baratas.

Pues bien, hoy Canon ha anunciado que publicará la semana que viene una actualización de firmware que añade una característica que -en mi opinión- debería haber estado desde el principio: el control manual de exposición en modo vídeo. Con esta nueva función, es posible seleccionar la apertura, el tiempo de exposición y la sensibilidad ISO durante la grabación de vídeos, dando al usuario un total control creativo. El complemento adecuado a la posibilidad que brinda una réflex como la 5D Mark II de intercambiar lentes y usar fácilmente filtros y otros accesorios.

Este anuncio es un clavo más en el ataúd de las cámaras de vídeo dedicadas. Cada vez está más claro que de aquí a unos años, las cámaras de vídeo se verán relegadas a un nicho de gama alta para profesionales, mientras que el resto del mercado se verá cubierto por cámaras híbridas de vídeo y audio. Incluyendo, naturalmente, el segmento de consumo, en donde esta tendencia empieza a ser habitual.

Microsoft anuncia el Zune HD

Como se esperaba desde hace un mes, Microsoft ha anunciado hoy el nuevo Zune HD. Y realmente hay pocas sorpresas respecto a los rumores que ya corrían desde mediados de abril.

El nuevo modelo contará con una pantalla OLED (aparentemente de 3") a una resolución de 480x272 píxeles (formato 16:9). Será capaz de reproducir contenido en alta definición, reescalándolo a definición estándar en la pantalla incorporada, y a "media resolución" (720p) a través de la salida HDMI del dock (que se venderá aparte). También se ha anunciado que estará basado en memoria flash, aunque no se ha indicado qué capacidad tendrá.

Además de las funciones tradicionales de reproducción de medios, el Zune HD contará con un receptor de HD Radio (un estándar que permite emitir audio digital sobre una señal FM estándar), soporte Wi-Fi, pantalla táctil multipunto, y un navegador web optimizado para pantalla táctil y con teclado virtual para permitir introducir texto.

Con bastante probabilidad, Zune HD saldrá a la venta en Estados Unidos el 5 de septiembre (supongo que para adelantarse unos días al lanzamiento de nuevos modelos de iPod). Después será lanzado en Europa, aunque en este caso no hay fechas. Microsoft a anunciado también sus planes de retirar los restantes modelos de Zune basados en memoria flash, aunque, parece, mantendrá en el mercado el modelo original basado en disco duro.

Mención aparte requiere el soporte de radio digital. La elección de HD Radio tiene sentido en Estados Unidos, al estar este sistema muy difundido en ese país; pero en Europa, dominada por el sistema DAB (Digital Audio Broadcast), el Zune HD quedará limitado a la recepción de la señal FM analógica.

Es evidente que las características del Zune HD son similares al actual iPod Touch en casi todos los sentidos. El modelo de Microsoft añade sobre el de Apple capacidad de reproducción de vídeo en alta definición e integración de un receptor de radio digital. La pantalla OLED presenta una resolución y una calidad de imagen similar a la TFT/LED del iPod Touch, consiguiendo únicamente reducir el consumo. La diferencia de resolución (480x272 frente a 480x320) no presenta ninguna ventaja real al reproducir formatos panorámicos (16:9 y superiores), mientras que la relación 3:2 del iPod significa que los vídeos no panorámicos (con relación 4:3) se ven ligeramente más grandes.

En todo caso, estamos comparando el Zune HD de septiembre de 2.009 con el iPod Touch de septiembre de 2.008. Y es de esperar que Apple actualice su línea iPod a mediados de septiembre, como viene haciendo los últimos años. Entonces podremos comparar manzanas con manzanas, y evaluar el nuevo modelo de Zune en su contexto.

Más información: http://www.winsupersite.com/zune/zunehd_preview.asp (en inglés), http://en.wikipedia.org/wiki/HD_Radio (en inglés)

miércoles, 27 de mayo de 2009

Service Pack 2 de Vista y Server 2008

Microsoft ha publicado hoy el Service Pack 2 de Windows Vista y Windows Server 2008. Siguiendo la tradición de Microsoft, este Service Pack no añade nueva funcionalidad al sistema operativo, sino que es una recopilación de todos los parches de seguridad, compatibilidad y rendimiento publicados desde el lanzamiento del sistema operativo.

Como es habitual, puede ser instalado a través de Windows Update, o mediante un paquete independiente. Si ya tenéis Windows Vista con el Service Pack 1 y habéis ido aplicando los parches que han salido, la instalación a través de Windows Update os irá mucho más rápida, ya que sólo descarga aquellas partes del SP que no están ya en vuestro equipo. Por el contrario, para instalaciones nuevas, o para aplicar el Service Pack en varios equipos, es más recomendable usar la segunda opción.

El paquete independiente está disponible, obviamente, en versiones de 32 y 64 bits. Podéis descargarlo usando los siguientes enlaces:

Versión de 32 bits: http://www.microsoft.com/downloads/details.aspx?familyid=A4DD31D5-F907-4406-9012-A5C3199EA2B3&displaylang=es (348 MB)

Versión de 64 bits: http://www.microsoft.com/downloads/details.aspx?familyid=656C9D4A-55EC-4972-A0D7-B1A6FEDF51A7&displaylang=es (577 MB)

Más información: http://support.microsoft.com/kb/935791/

martes, 26 de mayo de 2009

La foto de la semana: Arquivoltas

La foto de hoy la tomé la pasada Semana Santa de madrugada, mientras esperaba que llegase la procesión de la Hermandad de las Siete Palabras. Es la portada principal de la Iglesia de la Magdalena, tomada desde un ángulo que resalta la impresionante iluminación que tiene.

Arquivoltas / Archivolts

Prohíben los ebooks en la Feria del Libro de Madrid

Vivimos en el país del mundo al revés, de eso estoy cada vez más convencido. En el año en el que el libro electrónico es el protagonista de las principales ferias del libro europeas, y cuando mayor expectación está causando, va la Feria del Libro de Madrid y lo prohíbe. Al principio no me lo podía creer, pero consultando el reglamento publicado en la web oficial de la feria (http://www.ferialibromadrid.com/), en el artículo 6, apartado 1, punto iv se puede confirmar dicha prohibición.

Aquí veo dos problemas. El primero es que la industria del libro española comienza a protegerse frente a lo que ellos consideran una amenaza: la publicación electrónica. Esto, en un libre mercado, no sería problema en sí mismo: yo fabrico un producto A, y si hay un producto B que me puede quitar ventas, lo lógico es que no lo promocione. Pero el problema real es que el libro electrónico no es realmente un competidor del libro tradicional. Podría dar un montón de razones, pero me basta recordar que, en Estados Unidos (país que en materia tecnológica saca cabeza y cuello a Europa, y dos o tres cuerpos a España) la industria editorial ha incluido con éxito los libros electrónicos y los audiolibros en sus catálogos. Es el tema de siempre: el miedo a lo desconocido.

Bien, que sigan así si quieren. Supongo que más de un copista pensó de la misma manera a finales del siglo XV, cuando se popularizó la imprenta.

Para poner la guinda al pastel, el director de la Feria del Libro de Madrid, Teodoro Sacristán, ha declarado en defensa de la organización que la prohibición existe porque nadie este año ha solicitado presentar libros en formato electrónico ni lectores en la feria. Quizás le valdría más haberse callado antes de pretender que nos traguemos una falacia: ¿cómo va alguien a presentar una solicitud que va en contra de un artículo del reglamento?

Una lectura detallada del mismo artículo 6 del reglamento (dedicado a las exclusiones) descubre otras sorpresas. Por ejemplo, que los servicios de autoedición de libros del tipo de Lulu.com, o los vendedores de libros sin local u horario fijo no pueden acceder a la feria. Aunque la feria está organizada por el Gremio de Libreros de Madrid, a la luz de estas prohibiciones, más bien parecería diseñada para favorecer a los grandes del sector. La confirmación viene, esta vez, del propio Teodoro Sacristán, quién declara que hace diez años se introdujo un "Pabellón de Edición Digital", que se mantuvo en funcionamiento hasta que "dejó de tener sentido porque las grandes editoriales ya no estaban haciendo nada de eso".

Más información: http://www.tuexperto.com/2009/05/25/la-feria-del-libro-de-madrid-prohibe-el-libro-electronico/, http://www.adn.es/cultura/20090525/NWS-2523-Libro-Feria-peticiones-recibido-director.html

viernes, 22 de mayo de 2009

Problema: Windows 7 va lento en VMWare

Como os comenté en el artículo anterior, al instalar Windows 7 RC por primera vez en VMWare tuve algunos problemas. Esto es lo que me pasó, y cómo lo solucioné.

Tras descargarme la imagen ISO, creé -como hago habitualmente- una máquina virtual en VMWare, e intenté instalar el nuevo sistema operativo en ella. Pero las cosas empezaron a ir mal. La instalación se completó sin problemas, pero tardó tres horas (frente a los 43 minutos que me llevó instalar Windows 7 beta en enero). Además, una vez terminada la instalación, tardaba entre ocho y nueve minutos en arrancar (medidos desde la pantalla de la BIOS hasta el momento en que conseguía desplegar el menú Inicio). Increíblemente lento. Era posible que Microsoft hubiera hecho algo más lento Windows 7 al añadir algún servicio o engordar algo el código, pero... ¿tardar cuatro veces más? Sospechando que algo iba mal, me puse a investigar.

Para hacer corta la historia, os diré que el problema había surgido por la nueva versión de VMWare (la 6.5.2) que instalé hace un mes. La nueva versión del "hardware virtual" (la interfaz de hardware emulada por VMWare) parece que no se lleva bien con Windows 7 (o Windows 7 no se lleva bien con ella). El caso es que la solución es sencilla: apagar la máquina virtual, localizar el archivo .vmx de configuración (por ejemplo, "Windows 7 RC.vmx"), abrirlo con el bloc de notas, y en la línea que pone

virtualHW.version = "7"

sustituir el 7 por un 6 y guardar. Esto configurará una versión anterior del hardware virtual y, a partir de ese momento, Windows volverá a funcionar correctamente.

Haciendo más pruebas, me he encontrado que la ralentización también ocurre con el entorno de preinstalación (PE) de Windows Vista, así que probablemente afecte a todos los sistemas basados en la versión 6 del kernel NT (Windows Vista, Windows 7 y Windows Server 2008). Por otra parte, es probable que dependa del procesador de la máquina física: yo tengo un AMD Sempron, pero un amigo que tiene un AMD Athlon 64 no ha encontrado ningún problema.

Si tenéis experiencia, sea buena o mala, con Windows 7 en la versión 6.5.2 de VMWare, dejad un comentario. A ver si conseguimos acotar el problema :-) .

jueves, 21 de mayo de 2009

Impresiones sobre la RC de Windows 7

Hace dos semanas, Microsoft publico en su sitio web la RC de Windows 7. El lanzamiento, por supuesto, no fue tan esperado, ni causó tanto revuelo como el de la beta. Pero, aún así, muchos de los que nos movemos en este mundillo de la informática descargamos la nueva versión, y comenzamos a ponerla a prueba.

Mi experiencia no comenzó con buen pie. Una supuesta incompatibilidad con VMWare hacía que Windows 7 fuera extremadamente lento, aunque conseguí dar con una solución. Por ello, y como creo que puede ayudar a otros usuarios, le dedicaré un artículo otro día.

Una vez puesto todo en orden, me encontré con lo que me esperaba: una versión igual de sólida -aparentemente- que la RC, y con muchas menos "aristas". Una de las cosas que primero llama la atención es que el sistema de Control de Cuentas de Usuario (UAC) ha sido revisado desde la beta, de forma que ahora las operaciones "protegidas" del sistema operativo (las marcadas con un escudo de cuarteles azules y amarillos) se ejecutan inmediatamente, en lugar de mostrar un diálogo de elevación de privilegios. Esto significa que, en la práctica, sólo veremos esos diálogos cuando instalemos o desinstalemos un programa, algo que no sucede todos los días. El sistema en su totalidad se siente más suave que en la beta, como era de esperar, y hay una pequeña reducción del consumo de recursos frente a la versión de enero. Más allá de eso, no hay grandes cambios inmediatamente visibles. Windows Media Player ha ganado una función de streaming que permite "enviar" el audio a otro ordenador, y otras aplicaciones han ganado funcionalidades menores. La nueva barra de tareas, mi queja número uno respecto a la beta, me ha parecido más amigable, quizás porque la hayan retocado o (más probablemente) porque me he ido acostumbrando a ella.

En cuanto a estabilidad y compatibilidad, no puedo decir gran cosa sin mentir, ya que no he usado Windows 7 RC en el día a día. Pero amigos míos que sí lo han hecho (y que incluso se han aventurado a instalar la versión de 64 bits) se han encontrado un sistema aún más fiable, si cabe, que la versión beta. La versión de 64 bits, parece, está suficientemente madura para su uso generalizado.

Parece que Windows 7 ha llegado a la fase de "bloqueo de características" (el momento en el desarrollo de un producto en que se deja de implementar nuevas características y el equipo se centra en corrección de errores y optimización). Y, llegados a este punto, es hora de echar la vista atrás y comparar a Windows 7 con las versiones anteriores, para ver qué se ha avanzado. Para hacerlo, he tomado Windows XP (la versión original de octubre de 2.001), Windows Vista (también la versión original de enero de 2.007), Windows 7 beta y Windows 7 RC, y he medido el tiempo de arranque (desde la BIOS hasta desplegar el menú Inicio), la ocupación de memoria "en vacío" y la ocupación de disco. Estos son los datos que he obtenido:

ArranqueMemoriaDisco
Windows XP1:0473 MB1,17 GB
Windows Vista2:25328 MB5,29 GB
Windows 7 beta2:31298 MB5,38 GB
Windows 7 RC2:23294 MB5,40 GB

La máquina virtual de Windows XP contaba con 256 MB de memoria; todas las demás, con 512 MB (en mi experiencia, una cantidad razonable para la versión 6 del kernel NT). Para optimizar el sistema, tanto en Vista como en 7 he desactivado el indexador de Windows Search y el servicio de Windows Defender; además, VMWare no permite usar Aero. Por lo demás, la configuración es la estándar (y estos cambios se aplican a los tres sistemas basados en NT 6). Para igualar las diferencias, en el espacio en disco no he contado el archivo de intercambio ni (en caso de haberlo) el archivo de hibernación, que dependen más de la cantidad de RAM instalada que del sistema operativo en sí.

Desde luego, estos no son los datos que muchos se esperarían. No yo, al menos. Pero el cronómetro es tozudo: Windows 7 es ligeramente más rápido y más eficiente que Windows Vista en el mismo hardware, pero sólo marginalmente. En el uso día a día (incluso dentro de una máquina virtual) parece más "responsivo" que Vista, e incluso con hardware actual (procesadores multinúcleo y más de 2 GB de RAM) se desenvuelve mejor que XP; pero no hay manera de medirlo objetivamente, y puede no ser más que otro caso de efecto placebo.

Este artículo lo he escrito en base a datos objetivos, pero también en base a mis observaciones e impresiones, y las de algunos amigos y conocidos que han trabajado con la RC. Todo lo que sean opiniones y conclusiones es discutible, y estoy abierto al debate. En todo caso, al publicar yo los datos, me responsabilizo yo de ellos.

lunes, 18 de mayo de 2009

Fotografía para todos: el diafragma

La apertura de diafragma, aparte de regular la cantidad de luz que entra, controla también el grosor del haz de luz. Esto, a su vez, condiciona uno de los conceptos más esotéricos de la fotografía, la profundidad de campo. Si habéis observado algún retrato, habréis visto que, habitualmente, la cara aparece perfectamente nítida, mientras que el fondo de la fotografía aparece desenfocado. Esto es porque, al proyectarse la imagen sobre el soporte, sólo se ven nítidas las cosas que están en torno a una determinada distancia del objetivo. La profundidad de campo determina lo grande que es ese entorno: cuanta mayor sea la profundidad de campo, más objetos quedarán enfocados, y viceversa. Es interesante controlar esto, porque hay veces que nos interesa que toda la escena quede enfocada, y hay veces que queremos hacer un enfoque selectivo para resaltar algún elemento y dejar los demás difuminados.

La apertura de diafragma nos permite controlar precisamente esto. A mayor apertura, menor profundidad de campo (esto es, menos objetos enfocados, y mayor desenfoque en el resto de la escena), y a menor apertura, mayor profundidad de campo (más objetos enfocados). La apertura se mide como una fracción de la distancia focal (que veremos a continuación), y, por tanto, se expresa como f/2.8, f/4, etc. Al igual que ocurría con la velocidad de obturación, f/2.8 es una apertura mayor que f/4, por ejemplo.

En esta foto podéis ver claramente el efecto de la apertura en la profundiad de campo:

Macroelectrónica / Macroelectronics

Está tomada a f/2.8, una apertura bastante grande, para reducir al mínimo la profundidad de campo. Por eso, sólo se ve nítido el circuito integrado del centro de la imagen, mientras que los condensadores del frente y los componentes que quedan tras él quedan desenfocados. Si la imagen hubiese sido disparada con una apertura menor (f/8 o f/11, por ejemplo), gran parte de la imagen se vería nítida.

La foto de la semana: Claroscuro

Los días 1 y 2 de mayo, Zamora y Toro acogieron una quedada del grupo de Flickr La Bodeguilla de Olympus y 4/3, y muchos de los flickeros zamoranos compartimos la tarde del día 1 con los visitantes (aún los que usamos Nikon y Canon). El plato fuerte fue una visita a la Catedral, con permiso para hacer fotos. Un lujo que me permitió tomar un montón de fotos interesantes. Muchas de ellas están en mi galería de Flickr. Pero de entre todas me quedo con esta, por el juego de lineas cruzadas y luces y sombras, por el cariño que le tengo al claustro renacentista, y por haber salido directa de la cámara, sin necesidad de procesarla :-) .

Claroscuro / Chiaroscuro

sábado, 16 de mayo de 2009

Fotografía para todos: el obturador

El tiempo que el obturador permanece abierto (llamado habitualmente "tiempo de exposición" o "velocidad de obturación"), obviamente, afecta a la cantidad de luz que llega al soporte. Pero también determina cómo se capturarán las imágenes en movimiento. Imaginaos que estamos fotografiando un coche en movimiento. Durante el tiempo que esté abierto el obturador, el coche se desplazará cierta distancia. Cuanto más tiempo esté abierto, más se habrá movido el coche. Por tanto, cuanto más tiempo esté abierto, más movida quedará su imagen. Si queremos congelar el movimiento, deberemos usar una velocidad alta (o sea, abrirlo durante menos tiempo); en cambio, si queremos que quede movido (quizás para transmitir sensación de movimiento), usaremos una velocidad más baja (lo abriremos más tiempo).

El tiempo de exposición se mide en segundos; pero como habitualmente es muy pequeño, suele expresarse como una fracción de segundo (por ejemplo, un tiempo de exposición de 1/125 s. equivale a 8 milésimas de segundo; haced las cuentas). Por tanto, un tiempo de 1/125 s. es más lento (más largo) que uno de 1/250 s.

Aquí podéis ver dos fotografías tomadas con diferentes tiempos de exposición:

Velocidad / Speed Ejecutivo / Executive


La primera, tomada con un tiempo de exposición de 1/4 s. (o sea, 0,25 s.), emborrona la figura del coche, y permite ver la estela que dejan sus luces, pues durante ese tiempo el vehículo se desplazó un par de metros. En la segunda empleé un tiempo de exposición muchísimo menor, cercano a la milésima de segundo (1/800 s., exactamente), para obtener una imagen perfectamente nítida.

miércoles, 13 de mayo de 2009

Nuevo netbook Acer Aspire One 110AW

El sábado pasado, aprovechando una oferta de PC City, me he agenciado un netbook de 8.9" por unos escasísimos 170 Euros. Se trata, como indica el título del artículo, de un Acer Aspire One 110AW. La configuración de serie trae un procesador Intel Atom a 1,6 Ghz, 512 MB de RAM, 8 GB de almacenamiento en memoria flash, gráficos Intel integrados en el chipset, dos slots de tarjetas de memoria (uno SD/SDHC para expansión, y otro multiformato para intercambio de datos), tres puertos USB, puerto Ethernet y salida VGA, además de Wi-Fi integrado. Aquí tenéis las fotos del proceso de desembalaje:

Netbook Acer Aspire One 110AW

La primera impresión ha sido positiva. La versión de Linux incluida es Linpus Linux Lite, que incluye Firefox, OpenOffice, explorador de archivos, una aplicación de Acer que cumple las funciones de cliente de correo y RSS, agenda de contactos y calendario, además de una docena de juegos y algunos applets de configuración. El sistema tarda 15 segundos en mostrar una sencilla pantalla de inicio con doce iconos agrupados en cuatro áreas (pero después sigue cargando servicios en segundo plano, hasta el punto de que no es difícil arrancar Firefox antes de que la red esté en funcionamiento), que enfatiza la facilidad de uso, y es más que adecuada para el enfoque de ordenador-electrodoméstico que se les da a los netbooks. En esa línea, mostrar la terminal es un tanto enrevesado, y, hasta dónde yo sé, la única manera de instalar software es a través del gestor de paquetes de línea de comandos, pero supongo que no será una opción buscada por el usuario medio.

El hardware es modesto, pero no hay pega que ponerle si miramos el precio. La pantalla es de 262.000 colores, lo que se nota al mostrar imágenes con degradados, y la salida de audio no brilla por su rango dinámico y su respuesta de frecuencia, aunque los altavoces incorporados suenan hasta decentemente para el tamaño que tienen. La ergonomía es bastante razonable: el teclado es agradable de usar pese a su tamaño, y los puertos a los que es más probable conectar cables (Ethernet, VGA y alimentación) están a la izquierda, alejados del ratón.

En el apartado de software, este modelo está un tanto desfasado, y algo escaso. Viene con las versiones 2.0.14 de Firefox y 2.3.0 de OpenOffice, cuando ambas aplicaciones alcanzaron la versión 3 el pasado otoño, con importantes mejoras de rendimiento y, en el caso de Firefox, de seguridad. Por otra parte, el reproductor de medios integrado, aunque sencillo, reproduce sin problemas muchos de los tipos de archivos más comunes; pero no incluye ningún códec compatible con DivX/XViD, el que es prácticamente el formato de vídeo más común hoy en día. Por desgracia, acudir a la terminal para instalar software nuevo que solucione estas carencias está más allá del usuario medio.

Tengo intención de seguir usando Linux durante un par de semanas más, y luego instalar Windows XP SP3. Cuando tenga el netbook probado a fondo con ambos sistemas operativos, escribiré el análisis definitivo. Estad atentos.

Fotografía para todos: el soporte

Como vimos en el artículo anterior, podemos regular la cantidad de luz que captamos jugando con tres elementos (soporte, velocidad de obturación y apertura del diafragma). Los tres tienen "efectos laterales" que conviene conocer para poder elegir la configuración más adecuada en cada caso.

El soporte (película o sensor) tiene una determinada sensibilidad. Cuanto más sensible, más luz es capaz de aprovechar. Por tanto, a igualdad de parámetros, un soporte más sensible nos dará una imagen más luminosa. La sensibilidad del soporte se mide por el ISO. El ISO más habitual es el 100. Un ISO mayor (200, 400...) implica un soporte más sensible, y uno menor (50, 25...), uno menos sensible. En las cámaras de película, el ISO viene dado por la película misma. Para usar un ISO diferente, debemos cambiar de película. En las cámaras electrónicas, el ISO puede regularse electrónicamente en el propio sensor, por lo que podemos cambiarlo de disparo a disparo.

Un soporte más sensible nos permite fotografiar con menos luz, pero tiene un inconveniente: el grano o ruido. Conforme vamos subiendo en la escala ISO, los soportes, aparte de ser más sensibles, introducen más grano en la imagen. Esto se puede ver como un ligero (o no tan ligero) granulado (similar a la textura de la arena) en la imagen, sobre todo en áreas que tendrían que ser planas (por ejemplo, el cielo). Un poco de grano puede ser tolerable, o incluso deseable, pero mucho grano puede arruinar el detalle de una buena fotografía, como podéis apreciar en esta serie de imágenes:


Un mismo detalle, fotografiado a ISO 80, 400 y 1600

lunes, 11 de mayo de 2009

Fotografía para todos: conceptos básicos

Con este artículo comienzo una nueva serie sobre fotografía. Como debe ser, los primeros artículos tratarán sobre los conceptos básicos. Si ya conoces más o menos cómo funciona una cámara fotográfica, quizás quieras saltártelos. O quizás prefieras aprovechar para repasar teoría, que nunca viene mal :-) .

Cámaras de película (mal llamadas analógicas), cámaras digitales, cámaras de cine, cámaras de vídeo, cámaras compactas, cámaras réflex... Realmente, todas son similares por dentro. La principal diferencia es el dispositivo empleado para registrar la imagen, y quizás la forma de ofrecer los controles al usuario. Pero todas hacen lo mismo (proyectar una imagen sobre el soporte para poder capturarla), de una forma muy parecida. Por eso, de momento, no me voy a centrar en un tipo de cámara en particular.

En esencia, la fotografía se puede reducir a dos cosas: luz y composición. La luz es el principal elemento de la fotografía. Muchos de nuestros esfuerzos irán orientados a conseguir la cantidad adecuada de luz, ni mucha, ni demasiada poca. La composición define qué elementos aparecen en la imagen, y cómo se relacionan entre sí (formas, tamaños, colores, posiciones...). De momento, me centraré en la luz; la composición la dejaré para más adelante.

Aquí tenéis un esquema de los principales elementos de una cámara:


En él, se pueden distinguir cuatro elementos que están presentes siempre. El soporte (la película o el sensor) es el elemento encargado de registrar la imagen, por medios químicos o eléctricos. El marco negro que vemos sobre la película es el obturador, el elemento encargado de determinar durante cuánto tiempo llegará la luz a la película. Podéis pensar en él como una cortinilla que se descorre para hacer la foto y vuelve a correrse cuando hemos captado la cantidad de luz necesaria. El diafragma, ese elemento con forma de anillo, puede abrirse o cerrarse para regular la cantidad de luz que entra, y lo grueso que es el haz de luz. Por último, la lente permite enfocar la luz de forma que forme una imagen nítida sobre el soporte, y, en muchos casos, ampliar o reducir dicha imagen para permitir acercarnos a la escena o cambiar el encuadre sin mover la cámara.

Tres de estos cuatro elementos afectan a la cantidad de luz que recogeremos en la fotografía. Aquí tenéis un resumen de cómo la afecta cada uno de ellos:

Menos luzMás luz
Menos sensible
(menor ISO)
SoporteMás sensible
(mayor ISO)
Más rápido
(mayor velocidad)
ObturadorMás lento
(menos velocidad)
Más cerrado
(mayor número f)
DiafragmaMás abierto
(menor número f)

En los siguientes cuatro artículos, veremos con más detalle cada uno de estos parámetros.

La foto de la semana: De espaldas a Roma

La foto de esta semana es una imagen del que, quizás, sea el monumento más conocido de Zamora: la estatua de Viriato. Como sabéis, me gusta siempre buscar puntos de vista diferentes, y más aún cuando lo que estoy fotografiando es muy conocido. En este caso, he fotografiado la escultura desde atrás, capturando los brillos que en su bronce produce el sol de la tarde.

De espaldas a Roma / With the Back to Rome

sábado, 9 de mayo de 2009

De política

Cuando comencé este blog hace ya casi ocho meses (¡cómo pasa el tiempo!), me prometí a mi mismo no hablar de política en él. No porque no tenga mis opiniones, que por supuesto las tengo. Sino porque quiero hablar de tecnología, y el poner a caer de un burro al político de turno ya lo hacen muy bien los tertulianos de ciertos programas de radio y televisión.

Pero las cosas han cambiado en estos ocho meses. A peor, me temo.

Qué puedo decir que no se haya dicho ya de las gestoras de derechos de autor (las popularmente conocidas como sociedades de autor). Realizan una labor absolutamente necesaria. Pero en los últimos tiempos no hacen más que campear por un modelo económico que está obsoleto desde que existe Internet. Y, lo que es peor, hay serias dudas sobre si su gestión realmente protege a los artistas más desvalidos (a Bisbal y a Sabina no hace falta protegerlos, de eso ya se encargan sus millones). Los escándalos en los que se ven envueltas las gestoras son continuos, y rara es la semana en la que no oímos hablar de alguna de ellas en las noticias.

Desde luego, a esto tampoco ayuda que los artistas que, antes de las pasadas elecciones, hicieron campaña a favor del actual Gobierno, sean justamente los más beneficiados por las medidas aprobadas por ese mismo Gobierno en los últimos tiempos. Es, como mínimo, éticamente cuestionable. El como máximo os lo dejo a vosotros.

No seré yo quién se oponga al sistema de derechos de autor. Yo mismo vivo de vender (o licenciar, si lo queréis así) mi propiedad intelectual. Pero, ¡carajo!, una cosa es velar por los derechos de los autores, y otra muy diferente es usar esta defensa como argumento para atacar el bolsillo y las libertades de los usuarios de Internet en particular y los ciudadanos en general.

Pero no ha sido todo esto lo que me ha hecho escribir este artículo, no. Si no, lo habríais leído hace meses.

Lo que clama al cielo es que, en una vuelta de tuerca más, el Gobierno pretenda que mi conexión a Internet financie la televisión. Sí, habéis leído bien. Pretenden eliminar la publicidad de la televisión pública, y quieren financiarla, en parte, con un nuevo impuesto a las operadoras de telecomunicaciones. Que, inmediatamente, subirán las tarifas de conexión a Internet (no son hermanitas de la caridad; están para hacer negocio, ¿sabéis?). El resultado: yo, que no veo la televisión porque no me interesa lo más mínimo, voy a acabar financiando la cadena con la que estoy más en desacuerdo. O sea, la pública, la que está a merced del gobierno de turno, sea rojo o azul, diciendo siempre "si, bwana".

Ya que no nos preguntan (porque no quieren arriesgarse a oir el rotundo NO que seguro les gritaríamos en respuesta), sólo nos queda el derecho al pataleo.

Disculpad la filípica. Necesitaba desahogarme.

viernes, 8 de mayo de 2009

Windows 7 RC, disponible para descarga

Probablemente lo hayáis leído en los medios de comunicación. La RC (en cristiano, "candidata a publicación") de Windows 7 está disponible para su descarga desde la web oficial de Microsoft desde el martes. La RC está disponible en cinco idiomas, entre ellos el español. Podéis descargar la imagen ISO del DVD de instalación desde http://www.microsoft.com/windows/windows-7/download.aspx. Aseguráos de elegir la versión (32 o 64 bits) y el idioma adecuado. Un amigo mío ha tenido problemas para descargarla con Internet Explorer 7 y Google Chrome. Si os pasa a vosotros, usad Firefox (lo usáis todo el tiempo, ¿no?).

Yo ya lo he descargado, y en cuanto tenga tiempo, lo instalaré y pondré a prueba. Seguramente os cuente qué tal me va con ella en un artículo que estoy preparando con algunos benchmarks informales, para comparar 7 con Vista y XP. Os avanzo que puede que los resultados que he obtenido desmonten algún que otro mito O:-) .

Cómo NO diseñar un televisor

Un amigo mío tiene un taller de reparación de electrónica de consumo (televisores, DVDs, equipos de música, esas cosas). Por ello, tiene la concesión de servicio técnico oficial de varias de las marcas más importantes del mercado - y algunas otras menos conocidas.

El caso es que el otro día lo visité, y estaba dándole vueltas a un televisor (de una segunda marca, no diré más por respeto al fabricante). Acababa de repararlo y estaba probándolo para ver si funcionaba correctamente. La avería era que, en modo TDT, al entrar en el teletexto se cortaba el sonido, y había que apagar y volver a encender el televisor para que volviera a sonar.

Vimos que el televisor quedaba en silencio al entrar en el teletexto, pero que (al contrario de lo que ocurría antes) al abandonar el teletexto el sonido regresaba. Lo achacamos a un problema de diseño. Lo que nos preocupó fue que el control de volumen a veces funcionaba, y a veces no. Además, el botón Exit, para abandonar los menús de configuración del sintonizador digital, parecía no funcionar.

Tardamos casi media hora en darnos cuenta de que la culpa era nuestra. Lo del volumen era porque en el mando a distancia hay dos juegos de botones de control de volumen y de cambio de canal, y uno de ellos -el que estábamos usando- sólo funciona con el televisor en modo analógico (de ahí que a veces funcionara). Además, hay también dos parejas de botones Menú y Exit, uno para el menú analógico, y otro para el digital. De hecho, pulsándolos en la secuencia adecuada, es posible mostrar el menú analógico superpuesto al digital. Junto con otras lindezas similares, claro está.

Realmente, la culpa no era de nosotros. Ni mucho menos. Es de los ingenieros.

Usar ese televisor es una pesadilla. Me gusta, siempre que puedo, probar los aparatos en las tiendas antes de comprarlos. Y os puedo asegurar que yo jamás compraría ese modelo. Sencillamente, porque cuando quiero ver una película, lo que menos quiero es tener que pelearme con el televisor o el DVD. Que ya bastante tenemos con el día a día.

Pero, aparentemente, los fabricantes no piensan lo mismo.

miércoles, 6 de mayo de 2009

La foto de la semana: Trenzado

Esta semana he tenido que elegir entre dos nocturnas. Y me he quedado con ésta. Técnicamente es algo inferior a la otra, pero, como comento en Flickr, me gusta mucho la luz y el ambiente que tiene. Y parece que mis visitantes piensan lo mismo. Se trata de una instantánea tomada a pulso (exposición de 1 segundo) en la zamorana plaza de Viriato, a la caída de la noche. Vedla, y juzgad vosotros mismos.

Trenzado / Braided

Unity Mode de VMWare: una alternativa al Modo XP

Soy un fan de VMWare casi desde la primera versión. Desde luego, recuerdo haber instalado la versión 2.0 en Conan (mi vetusto AMD Athlon) cuando todavía era una máquina potente. Y, por eso, aprovechando un reinicio rutinario, instalé la última versión, la 6.5, hace un par de semanas.

Lo que son las coincidencias. Esto fue justo antes de que Microsoft anunciara el Modo XP de Windows 7. Y digo "coincidencia" porque VMWare 6.5 incluye una característica muy similar: el modo Unity. Este modo permite mostrar las ventanas de las aplicaciones de la máquina virtual directamente en el escritorio del anfitrión, fuera de VMWare. Esto permite, entre otras cosas, cambiar entre aplicaciones nativas y virtualizadas usando la barra de tareas o Alt+Tab, e intercambiar datos entre las aplicaciones usando copiar y pegar. Aquí tenéis una captura de pantalla tomada en mi equipo, donde podéis ver los diálogos Propiedades del sistema del anfitrión (color plateado) y la máquina virtual (color azul) lado a lado:


(clic para ampliar la imagen)

En comparación con el Modo XP de Windows 7 (que está basado en los servicios de escritorio remoto), el rendimiento es mejorable: acciones como mover o cambiar el tamaño de una ventana se hacen exasperantes. Y tenemos el inconveniente de que tenemos que comprar una licencia de Windows XP y otra de VMWare, mientras que en el Modo XP de Windows 7 las licencias de Virtual PC y Windows XP ya van incluídas en el precio. Pero ahí se acaban los inconvenientes.

Por su parte, el Modo XP sólo funciona en Windows 7, sólo permite fusionar el escritorio de Windows XP (otros sistemas operativos correrán sólo en ventana), y requiere soporte de virtualización por hardware (algo que muchos procesadores de hoy en día todavía no incluyen). Sin embargo, VMWare Unity funciona con cualquier procesador, con todos los sistemas operativos anfitriones compatibles con VMWare, y con diferentes versiones de Windows (desde Windows 2000 hasta el propio Windows 7), o incluso Linux, como huéspedes. Si a esto le sumamos que VMWare es un producto mucho más "redondo" que el Virtual PC de Microsoft (en el que está basado el Modo XP), las ventajas son evidentes.

Desde luego, a falta de poder probar el Modo XP de Windows 7, para mi la elección es clara: me quedo con mi querido (y fiable) VMWare.