Deuda técnica–qué es y cómo se detecta?

Cuántos de vosotros habéis oído de productos que, a pesar de arrancar brillantemente, vieron su desarrollo retrasado o totalmente detenido por problemas que no hacían más que aumentar con el tiempo a cada nueva versión?

debt
Hace unos días me hicieron llegar un excelente artículo de Enrique Dans acerca de la deuda técnica y cómo dicha deuda provocó la caída de los sistemas de British Airways que muchos miles de pasajeros padecieron. Y aunque estoy de acuerdo con el artículo, me pareció que el autor cargaba excesivamente las tintas contra la parte final del proceso: el mantenimiento del sistema una vez puesto en marcha, prácticamente igualando la deuda técnica al tiempo que transcurre desde que un sistema arranca y no es mantenido apropiadamente en producción.

La deuda técnica se define como los recursos (tiempo y coste económico) necesarios para resolver problemas en sistemas tanto en su fase de desarrollo como una vez puestos en producción. Con el tiempo, si dichos defectos de diseño o mantenimiento no se solucionan, no hacen más que incrementar los recursos – de ahí el término “deuda” que, como los tipos de interés, no hace más que aumentar con el tiempo – necesarios para resolver el problema.

El artículo de Enrique Dans analiza la generación de deuda técnica incrementada por un negligente mantenimiento de un sistema que, por otro lado, no aparentaba problemas de diseño. En lugar de emplear recursos de la empresa de forma constante para mantener los sistemas, se empleó personal externo para ello. Dicho personal externo, a medida que es reemplazado por otro personal externo sin el entrenamiento pertinente, no hacía más que empeorar los procesos – hasta que alguien tumbó el sistema. Es lo que yo considero “deuda técnica de IT”. Pero el sistema podría haber sido perfectamente funcional.

Pero mi concepto de deuda técnica viene de mucho más atrás. La deuda técnica empieza el día que se empieza el desarrollo del sistema.

La historia va así: alguien tiene una idea, posiblemente una excelente idea para un nuevo producto, un proyecto que podría ser incluso revolucionario. Manos a la obra, empieza el desarrollo, inicialmente con unas expectativas concretas, un punto concreto al que llegar para el lanzamiento. Aparentemente todo va según lo planeado, el desarrollo avanza según lo previsto: salimos en fechas.

Poco a poco, el desarrollo se va ralentizando, pierde ese empuje inicial, empiezan a aparecer problemas a cada paso que bloquean todo el desarrollo hasta que se resuelven. Al principio las paradas son relativamente esporádicas y se resuelven rápidamente, pero según avanzan las semanas cada problema se vuelve más “raro”, más complejo, requiere de más recursos, y cuando se soluciona uno, aparece otro por otro sitio. Es el síntoma obvio de un problema de deuda técnica: cada nuevo problema es más caro de resolver que el anterior, porque los problemas iniciales de diseño no se resolvieron en su momento.

Si cuando apareció el tercer problema, se hubiese realizado un análisis de los tres como un conjunto (y no simplemente parchear cada uno de ellos individualmente que es, tristemente, lo que los estándares de la industria dictan hoy en día) y solucionar el defecto de diseño inicial que los provocó, no habrían aparecido los subsiguientes problemas (y el desarrollo sería más rápido desde ese momento, sin innumerables paradas). Sí, arreglar el error de diseño al aparecer el primer problema hubiese requerido una parada de desarrollo (y las subsecuentes modificaciones de los módulos afectados), pero en las fases iniciales el número de módulos suele ser reducido y el impacto, limitado.

Pero si el desarrollo prosigue y se sigue tratando cada problema como una entidad individual, y se siguen desarrollando módulos sobre una base defectuosa (la deuda aumenta), cuando alguien determine que el problema no es puntual sino congénito, el coste de repararlo será masivo: implicará tanto aplicar la solución al problema de diseño más el refactoring de ahora una inmensa cantidad de módulos hechos a medida de ese defecto de diseño.

Imaginemos un problema del diseño base que se puede resolver (incluyendo testing) en cuatro días. Para completar los datos, asumamos que nuestros programadores ganan 60 euros diarios. Subsanar el defecto de diseño inicial costaría unos irrisorios 240 euros (60 euros multiplicado por 4 días).  Imaginemos que durante la fase inicial (el “tercer” fallo del que hablábamos antes) nos ponemos en el peor de los casos y el cambio en la base implica “breaking changes” que lo hacen incompatible con las implementaciones de los módulos implicados (hasta ahora, tres). Adaptar o reescribir esos tres módulos (y sus dependencias) implica7 días por módulo:

(4 días x 1 módulo x 60€) +
(7 días x 3 módulos x 60€)
= 1500€

Obviamente, puede que no se pueda hacer ningún trabajo en los módulos afectados mientras se realiza la corrección de la base, así que el costo de un número de programadores potencialmente “esperando” también aumentaría el costo, pero ya tenemos una cifra, en euros, que es lo que nos interesa. De los 240 euros iniciales ya nos hemos puesto en 1500.

Supongamos que nuestro director opina que esos 1500 euros, más un número potencial de programadores parados no es justificable y exige continuar con el diseño actual (al famoso grito de “eso ya lo arreglamos en dos patás más adelante”). El defecto de diseño persiste, se siguen escribiendo módulos dependientes, los problemas y errores ya están ralentizando el desarrollo (seguid multiplicando euros por horas). Ya está costando dinero (30? 40? 50 mil euros?), y eso que ni siquiera estamos arreglando el problema de base, porque los módulos dependientes llevan cerca de un 30% de código necesario para soportar el defecto de diseño inicial: estamos pagando dinero por escribir código “tirita” o “parche” y ni siquiera estamos en producción. La cifra ya es monumental.

Cuando llega el problema número quince, con docenas de módulos y dependencias afectados y el proyecto costando un dineral (por horas perdidas en ir “parcheando” defectos), llega el momento de la verdad y alguien, más arriba del director, decide que es momento de parar y solucionar el problema… Veamos ahora a cuanto asciende… Supongamos ahora quince módulos directamente dependientes, también con 7 días de refactoring, pero ahora con cada módulo soportando a su vez otros cinco elementos (35 en total), con un promedio de 5 días de media: algunos módulos se pueden aprovechar, otros toca reescribirlos o requieren una reescritura considerable:

(4 días x 1 módulo x 60€) +
(7 días x 15 módulos x 60€) +
(5 días x 35 módulos x 60€)
= 17040€

De los 240 euros iniciales nos hemos puesto en 17000 sólo para resolver el problema y sin contar el precio del desarrollo ya realizado sobre la base defectuosa (esos 30, 40, 50 mil euros). Y a este nivel del problema, lo más probable es que los programadores sí estén parados durante la reestructuración. Cuánto hemos gastado por no solucionar el problema al principio? Reparar el problema congénito sigue constando 240 euros, pero su deuda técnica ha sido masiva, potencialmente letal para el proyecto o incluso la empresa.

Ahora, ese alguien por encima del director, tendrá que decidir, no ya si invertir 17000 euros en reparar algo que no debía existir en primer lugar, sino en admitir el gasto de los 30, 40 o 50 mil euros empleados sobre una base defectuosa y que, más que posiblemente, también requieran más inversión. Es cuando empiezan a rodar cabezas.

De repente, los 240, o incluso los 1500 euros, parecen un precio de risa…

Anuncios

Windows 10 en ARM–a la segunda va la vencida?

Para los que no hayáis oído la noticia, el año próximo tendremos Windows 10 corriendo nativamente en procesadores Qualcomm Snapdragon con arquitectura ARM. Parece toda una novedad, solo que ya había ocurrido antes.

Solo que en la ocasión anterior no salió todo lo bien que se podría esperar. El producto se llamaba “Surface” (sin “Pro”) y corría en procesadores ARM pero, entonces, fabricados por nVidia y el sistema operativo era Windows 8. Primero veamos los puntos en común.

Tanto  Windows 8 como el “nuevo” Windows 10 no hacen ningún tipo de magia: ambos están compilados nativamente para procesadores ARM siendo la única diferencia que la versión que corría el Surface original era de 32 bits frente a la compilación de 64 para la nueva versión que veremos el año que viene. Nos enseñaron Office corriendo en Windows 10 sobre ARM, pero eso ya ocurría con el Surface original: era exactamente el mismo Office que usamos en nuestros portátiles y PCs de escritorio, solo que (nuevamente) compilado para los procesadores móviles.

Todo, desde la shell de Windows 8, el explorador tradicional de Windows, y todas las aplicaciones embebidas en el SO estaban compiladas para procesadores ARM, y corrían “nativamente”. Y ese fue el principal problema del Surface original: que la gente no entiende de arquitecturas y simplemente ve “una tableta corriendo Windows”. En ningún sitio se podría deducir que ese “portátil raro” no podría ejecutar todo el software que usamos cada día: todo era idéntico a un Windows 8 corriendo en un portátil “normal y corriente”. Y eso sólo genera frustración por parte de los usuarios.

Un mensaje mal transmitido, una plataforma demasiado “igual” a la que usamos todos los días pero que no puede ejecutar los programas que usamos todos los días. El fracaso del Surface fue notable y costó una importante cantidad de dinero a Microsoft. Lo intentaron de nuevo con el Surface 3, que sí incluía procesadores x86 (Atom) en lugar de ARM, pero el daño ya estaba hecho. Y mientras la familia Pro de Surface crecía tanto en usuarios como en la satisfacción de los mismos, dando incluso lugar a la creación de una nueva categoría de mercado copiada hoy por infinidad de fabricantes, el concepto de “Surface en procesadores móviles” se desvaneció completamente.

Y cual es la diferencia ahora?

Hay dos principales diferencias entre el Surface original y lo que hemos visto en el WinHEC. La principal (y más llamativa, desde luego) fue ver un procesador ARM ejecutando Adobe Photoshop. Si, el mismo Photoshop que usamos cada día en nuestros PCs. La magia se debe a una nueva capa de emulación que convierte al vuelo el código x86 (sí, sólo la variante de 32 bits) en código ARM. Gracias a esa capa, un procesador ARM es capaz de ejecutar todos (bueno, todos los que ofrezcan versiones de 32 bits) los programas a los que estamos acostumbrados. Y seamos claros: no va a correr igual de deprisa que si estuviesen compilados en nativo, pero sí se ejecutan. Sólo eso convierte Windows sobre ARM en una plataforma viable.

La otra gran diferencia es que, por fin (o por lo menos, eso espero), Microsoft incluirá los compiladores ARM “sin restricciones” en los entornos de desarrollo. Hasta ahora, la compilación ARM estaba limitada a componentes UWP (necesario para hacer aplicaciones nativas para PCs y móviles), pero no se podía activar para “todo lo demás”, como por ejemplo, una simple aplicación nativa (C++) de consola.

Primero veremos nuestras aplicaciones tradicionales corriendo bajo la emulación x86/ARM. Si la plataforma coge tracción, los fabricantes pueden optar por ofrecer las aplicaciones compiladas nativamente para ARM.

Un giro para la industria en general?

Microsoft  tiene una enorme experiencia desarrollando sistemas operativos y aplicaciones multiplataforma desde hace décadas: Windows NT estaba disponible para procesadores Intel (en dos variantes: x86 e Itanium), Alpha, MIPS, PowerPC. Era exactamente el mismo sistema operativo, compilado para diferentes arquitecturas. Hoy por hoy, Microsoft sigue usando esas tecnologías para reutilizar el código de Windows en PCs con procesadores x86/x64 y procesadores ARM en la variante móvil (Windows Phone) – sólo cambia la “shell” de interface de usuario, lo que hay debajo es exactamente lo mismo.

Y al igual que Microsoft no quiere limitarse a apuntar a una sola arquitectura, Apple tampoco quiere: sus sistemas operativos son virtualmente iguales por dentro compartiendo una enorme cantidad de código fuente. Se han producido infinidad de rumores acerca de Apple reemplazando los procesadores Intel de sus portátiles por procesadores ARM. Quizá esta tecnología de transcompilación pueda ser igual de efectiva para la manzana.

Ya, y la potencia?

Si, ya lo sabemos: los procesadores Intel son mucho más hambrientos en recursos que los procesadores ARM, debido a la cantidad de potencia “bruta” que contienen. Los procesadores ARM, a pesar de correr a velocidades de reloj similares, no ofrecen la misma potencia bruta. Pero es que los procesadores ARM son tan compactos y consumen tan poco, que nada impide emplear 8, 16, 32 núcleos en un encapsulado igual (o mejor) de eficiente que un procesador Intel actual, ofreciendo una capacidad de cálculo equivalente. La industria orientará esta posible expansión de la arquitectura ARM hasta el actual feudo de Intel, los PCs de sobremesa, portátiles y, sobre todo, servidores.

Porque recordemos: Windows Server también es multiplataforma… nada impide compilar (y seguro que ya lo hacen) el software de servidor para ARM y emplear nuevos procesadores con infinidad de núcleos para una nueva familia de productos de servidor de bajo consumo y enorme densidad.

Veremos un cambio en la industria en general en los próximos años? Ya lo veremos. Por lo pronto, disfrutemos del viaje.

Categorías:Opinión Etiquetas: , , ,

Aplicaciones internacionales con ASP.NET

Me sigue chocando seguir viendo soluciones de lo más artesanal para internacionalizar páginas web hospedadas con IIS, cuando la plataforma nos las da de serie y con un mínimo esfuerzo por parte del programador.

He visto usar parámetros en las URLs, pasarlos de módulo a módulo, y construir complejas funcionalidades para arrastrar el parámetro de página en página… Realmente no hay que hacer nada de eso, simplemente dejar que el navegador nos ayude y .NET (e IIS) lo aprovechen.

Todo empieza en el navegador

Es posible que no lo sepáis, pero los navegadores incluyen el idioma deseado en cada petición que realizan al servidor. Las peticiones HTTP (y HTTPS, por supuesto) incluyen una cabecera donde se incluye información útil para que el servidor pueda realizar su trabajo: desde la página que se está solicitando, un método (GET, POST) si soporta compresión o no, y, lo que nos interesa, el idioma esperado para la respuesta. La cabecera en cuestión se llama “Accept-Language” y da la lista de idiomas configurados por el usuario.

Cread (o usad una página web ya existente) en vuestro servidor – en este ejemplo usaremos una página WebForms clásica “TestPage.aspx”, y abridla con vuestro navegador favorito. Usando las herramientas de desarrollo de Chrome, por ejemplo, en la parte de visualización de red, encontraréis algo como esto, y la entrada en la que estamos particularmente interesados es “Accept-Language”:

AcceptLanguageHeader

En este ejemplo, Chrome está solicitando la página en inglés, y ofrece dos opciones: la “específica” (“en-US”, inglés de Estados Unidos) y la genérica (“en”, Inglés).

Obviamente, esa información está al alcance de una línea de código en el servidor. En nuestra página TestPage.aspx podemos incluir lo siguiente para comprobarlo:

protected void Page_Load(object sender, EventArgs e)
{
  var requestedCulture = Request.Headers["Accept-Language"];
  System.Diagnostics.Debug.WriteLine("Culture:" + requestedCulture);
}

En la ventana de Depuración veréis lo siguiente:

AcceptLanguageHeader_Server

Pero qué ocurre cuando configuramos Chrome para que solicite páginas en francés como idioma preferido e inglés como secundario? Podemos configurarlo navegando la url “chrome://settings” y abriendo “Ajustes avanzados”. Configuraremos los idiomas así:

ChromeLangSettings

y refrescamos la página: en el servidor veremos lo siguiente, con la nueva opción (“fr”) como primera preferencia:

AcceptLanguageHeader_Server_2

Y ahora, antes de que os pongáis a leer la cabecera “a pelo” en todas vuestras páginas, seguid leyendo… porque no tenéis que hacerlo!!!

Una página para experimentar

Vamos a añadir una simple página (también WebForms, aunque es exactamente lo mismo en Razor, o WebAPI, o MVC) para experimentar un poco. El código de la página es el siguiente (por simplicidad he eliminado el código posterior (“code behind”):

<%@ Page Language="C#" Inherits="System.Web.UI.Page" %>

<!DOCTYPE html>

<html xmlns="http://www.w3.org/1999/xhtml">
<head>
    <title>Welcome</title>
</head>
<body>
    <h1>Welcome to my web!!</h1>
    <p>Today is <% =DateTime.Today.ToLongDateString() %></p>
</body>
</html>

Y vamos a navegarla con Chrome configurado para pedir contenidos en francés. El resultado es, como podéis esperar, una página en… inglés?

Intl_Nav_1

El primer problema es obvio: el ordenador que hospeda IIS corre un sistema operativo en español, así que las fechas salen en el idioma de Cervantes. Vamos mal… pero aunque parezca increíble, todo el proceso empieza con una sola línea en el archivo web.config. Cambiad la sección <system.web> de esto:

  <system.web>
    <compilation debug="true" targetFramework="4.5.2"/>
    <httpRuntime targetFramework="4.5.2"/>
  </system.web>

a esto:

  <system.web>
    <compilation debug="true" targetFramework="4.5.2"/>
    <httpRuntime targetFramework="4.5.2"/>
    <globalization culture="auto" uiCulture="auto" enableClientBasedCulture="true"/>
  </system.web>

Con una simple directiva IIS aplicará la región solicitada por el navegador a todas (si, todas!) las peticiones que gestione. Simplemente arrancad de nuevo, navegad la página otra vez y veréis el cambio:

Intl_Nav_2

La fecha aparece perfectamente formateada en francés… sin escribir ni una sola línea de código.

Al hacer la cultura de interface de usuario (uiCulture) automática y permitir a IIS que aplique la cultura requerida por el usuario (enableClientBasedCulture) lo que ocurre es que IIS, en las primeras fases de la cola de procesos que implica responder a una solicitud web, lee la cabecera Accept-Language, la analiza y busca la mejor cultura (CultureInfo) disponible y la aplica de manera automática al resto del proceso. Cuando en la página escribimos DateTime.Today.ToLongDateString(), la cultura está correctamente configurada para generar la fecha en el idioma correcto. Y tenemos acceso a dicha cultura automática por medio de la propiedad CurrentUICulture de CultureInfo. Si cambiamos nuestra página de pruebas a lo siguiente:

protected void Page_Load(object sender, EventArgs e)
{
  var requestedCulture = CultureInfo.CurrentUICulture;
  System.Diagnostics.Debug.WriteLine("Culture:" + requestedCulture.NativeName);
}

al navegarla con Chrome el resultado es el siguiente:

AcceptLanguageHeader_Server_3

Ya, pero, y el resto de los textos?

Si, hasta ahora hemos traducido una parte extremadamente pequeña de nuestra página. Ahora viene lo realmente importante, nuestros textos.

Y .NET ha facilitado la operación de obtener textos traducidos de forma automática desde el primer día, empleando archivos de recursos. Los archivos de recursos son colecciones de elementos dependientes de idioma (habitualmente cadenas de texto, pero también imágenes) gestionados por .NET. Para empezar a traducir nuestra página web vamos a empezar trasladando lo textos actuales a un archivo de recursos.

Empezaremos añadiendo un archivo con los textos en inglés (ya que nuestra web está actualmente en inglés). En Visual Studio cread una carpeta “Resources” y dentro de ella cread un nuevo archivo de recursos. Llamadlo “WebStrings.resx”:

NewResource

(Nota: si usáis WebForms hay una forma más específica de añadir archivos .resx y de gestionarlos desde la página. El método que estoy documentando es genérico y válido tanto para páginas web como para aplicaciones nativas).

Una vez creado el archivo, abridlo en VisualStudio:

StringEditor_1

Importante: antes de empezar a añadir los textos, cambiad (en la parte superior) el modificador de acceso para los recursos de “Interno” a “Público”.

Ahora añadid los diversos textos necesarios en la página:

StringEditor_2

Las cadenas que estamos añadiendo se convierten en miembros de una clase que podemos emplear en cualquier parte de nuestro código. Y lo mejor, al ser un tipo generado automáticamente, disponemos de Intellisense a la hora de trabajar con él:

UsingStrings_Intellisense

En nuestro ejemplo, y dado que la aplicación se llama “IntlWeb”, el namespace para nuestras cadenas es IntlWeb.Resources.WebStrings. Una vez reemplazados todos los textos, la página queda así:

<%@ Page Language="C#" Inherits="System.Web.UI.Page" %>

<!DOCTYPE html>

<html xmlns="http://www.w3.org/1999/xhtml">
<head>
    <title><% =IntlWeb.Resources.WebStrings.Page_Title %></title>
</head>
<body>
    <h1><% =IntlWeb.Resources.WebStrings.Body_WelcomeMessage %></h1>
    <p><% =IntlWeb.Resources.WebStrings.Body_TodayIs %> <% =DateTime.Today.ToLongDateString() %></p>
</body>
</html>

Obviamente, nuestra página sigue mostrando mensajes en inglés. Ahora tenemos que añadir los textos en francés. Para ello (y tendréis que disculparme, no hablo francés así que los textos pueden no estar del todo correctos) duplicad desde VisualStudio el archivo WebStrings.resx y ponedle como nombre WebStrings.fr.resx. El nombre del archivo es extremadamente importante: el código del idioma debe ir entre el nombre y la extensión, y puede ser un idioma general (“.es.”) o un código completo cuando necesitamos más “finura” a la hora de ofrecer textos (“.es-ES.”). Una vez copiado, abridlo y cambiad los textos:

StringEditor_3

Si navegamos la página desde Chrome, el resultado será el siguiente:

Intl_Nav_3

Como no podría ser de otro modo, añadamos también textos en español. Como podréis imaginar el nombre del archivo será WebStrings.es.resx:

StringEditor_4

Y desde Chrome volved a abrir la configuración y cambiad los idiomas colocando el Español el primero de la lista (no es necesario eliminar el idioma francés):

ChromeLangSettings_2

Aceptad los ajustes, volved a la página y simplemente refrescadla:

Intl_Nav_4

Cuando una aplicación pide una de las cadenas de recursos guardadas en un archivo .resx, .NET busca primero el archivo con la cultura que más se aproxime y luego los va evaluando por prioridad descendente. Si, por ejemplo, la cultura pedida por el usuario es “Alemán de Austria” (“de-AU”) buscará primero un archivo con la extensión “de-AU.resx”, Si no lo encuentra continuará con la versión “Alemán” (".de.resx") y finalmente leerá los contenidos de la versión genérica (“.resx”). Procurad por ello emplear en lo posible archivos de idiomas lo más generales posibles: si empleáis “.es-MX.resx”, un usuario desde España verá los textos en el idioma predeterminado al no encontrar los recursos ni específicos (“es-ES.resx”) ni generales para el idioma (“.es.resx”).

Ya, pero… y el JavaScript?

Pues es una estupenda pregunta. Si bien localizar textos en el servidor está perfectamente soportado por .NET (e IIS) de “fábrica”, las páginas emplean cada vez más librerías de cliente escritas en JavaScript. Pero aunque dicha funcionalidad no exista en el servidor, no significa que no podamos añadirla muy fácilmente.

Volviendo a nuestro ejemplo, imaginemos que nuestra página usa código JavaScript para realizar alguna operación en el cliente. Nuestro archivo se llama “App.js” y actualmente usa textos en inglés, junto con controles en la misma página. En este ejemplo vamos a traducir (también!) los controles de la página desde JavaScript en lugar de utilizar los recursos del servidor como hemos hecho hasta ahora – traducción totalmente en el lado del cliente.

El código de la página es el siguiente:

<!DOCTYPE html>
<html>
<head>
  <meta charset="utf-8" />
  <script src="App.js"></script>
</head>
<body>
  <button id="cmd1">Command 1</button>
  <button id="cmd2">Command 2</button>
  <button id="cmd3">Command 3</button>
</body>
</html>

y el archivo JavaScript (“App.js”) contiene lo siguiente:

window.onload = function ()
{
  var cmd1 = document.getElementById("cmd1");
  var cmd2 = document.getElementById("cmd2");
  var cmd3 = document.getElementById("cmd3");

  cmd1.addEventListener("click", function ()
  {
    alert("You clicked on the first button");
  });
  cmd2.addEventListener("click", function ()
  {
    alert("You clicked on the second button");
  });
  cmd3.addEventListener("click", function ()
  {
    alert("You clicked on the third button");
  });
};

Como podréis imaginar, no es que haga mucho, pero la idea es simple: cuando el usuario pulsa sobre uno de los botones, se muestra un texto informando de la importantísima operación que se ha llevado a cabo:

JavaScript_1

El tema es: cómo traducimos las cadenas incluidas en el programa JavaScript? Si bien IIS no tiene soporte directo para traducir javascript, nosotros podemos añadirlo.

Lo primero que vamos a hacer es algo parecido a lo que hicimos con nuestra página: convertir las cadenas de texto en variables que guardaremos en sendos archivos javascript, empleando un nombre que nos permita identificarlos por idioma. El primero que escribiremos será el archivo con los textos genéricos, en nuestro caso, en inglés. Para identificar que el archivo contiene los textos de nuestra aplicación, lo llamaremos “App.strings.js”:

// App.strings.js
var strings =
  {
    cmd1Caption: "Button 1",
    cmd2Caption: "Button 2",
    cmd3Caption: "Button 3",
    cmd1Clicked: "You clicked on the first button",
    cmd2Clicked: "You clicked on the second button",
    cmd3Clicked: "You clicked on the third button",
  };

También modificaremos nuestro programa para usar las cadenas del archivo en lugar de las predeterminadas:

window.onload = function ()
{
  var cmd1 = document.getElementById("cmd1");
  var cmd2 = document.getElementById("cmd2");
  var cmd3 = document.getElementById("cmd3");

  cmd1.innerText = strings.cmd1Caption;
  cmd2.innerText = strings.cmd2Caption;
  cmd3.innerText = strings.cmd3Caption;

  cmd1.addEventListener("click", function ()
  {
    alert(strings.cmd1Clicked);
  });
  cmd2.addEventListener("click", function ()
  {
    alert(strings.cmd2Clicked);
  });
  cmd3.addEventListener("click", function ()
  {
    alert(strings.cmd3Clicked);
  });
};

Y finalmente, en la página añadiremos la referencia al archivo de cadenas (App.strings.js) además de nuestro código (App.js) en la cabecera de la página:

<head>
  <meta charset="utf-8" />
  <script src="App.strings.js"></script>
  <script src="App.js"></script>
</head>

Hasta ahora todo muy bien, pero nuestra página sigue funcionando únicamente en inglés y, de hecho, si la ejecutamos ahora veremos exactamente lo mismo que antes. Cómo conseguir ahora que los textos (o, mejor dicho, el archivo App.strings.js) se traduzca? Ahora es cuando IIS nuevamente vuelve a echarnos una mano. Vamos a añadir un “handler” al servidor que, aprovechando que IIS nos informará del idioma que desea el usuario, se encargue de devolvernos el archivo .strings.js correcto.

Cuando el handler reciba una petición para un archivo cuyo nombre termine en “.strings.js”, usará la propiedad CurrentUICulture para construir diversos nombres de archivo. Si por ejemplo el navegador solicita el archivo “app.strings.js” y el idioma es “de-AU”, primero buscará un archivo “app.de-AU.strings.js”, a continuación buscará “app.de.strings.js” y finalmente probará con “app.strings.js”.

using System.Globalization;
using System.IO;
using System.Web;

namespace IntlWeb
{
  public class JSLocalizer : IHttpHandler
  {
    private  const string Extension = ".strings.js";

    public bool IsReusable => true;

    public void ProcessRequest(HttpContext context)
    {
      var culture = CultureInfo.CurrentUICulture;
      var basePath = context.Request.AppRelativeCurrentExecutionFilePath;

      basePath = basePath.Remove(basePath.Length - Extension.Length);
      var physPath = context.Server.MapPath(basePath);

      // <filename>.ll-RR.strings.js
      var fileName = $"{physPath}.{culture.Name}{Extension}";
      if (File.Exists(fileName) == false)
      {
        // <filename>.ll.strings.js
        fileName = $"{physPath}.{culture.TwoLetterISOLanguageName}{Extension}";
        if (File.Exists(fileName) == false)
        {
          // <filename>.strings.js
          fileName = $"{physPath}{Extension}";
          if (File.Exists(fileName) == false)
          {
            context.Response.StatusCode = 404// File not found
            return;
          }
        }
      }

      var response = context.Response;
      response.ContentType = "text/javascript";
      response.Charset = System.Text.Encoding.UTF8.WebName;
      response.ContentEncoding = System.Text.Encoding.UTF8;
      response.Expires = 24 * 60;   // 1 day user caching

      response.WriteFile(fileName);
    }
  }
}

Solo queda registrarlo en el archivo web.config para que gestione las peticiones de cualquier archivo “*.strings.js”:

  <system.webServer>
    <handlers>
      <add name="Script String Localizer" verb="*" path="*.strings.js" type="IntlWeb.JSLocalizer" />
    </handlers>
  </system.webServer>

Finalmente, sólo nos queda probarlo. Vamos a añadir un archivo con los textos en español a nuestra aplicación JavaScript, copiando el archivo App.strings.js en uno que se llame App.es.strings.js. Cambiemos los textos y pidamos la página, a ver qué pasa:

// App.es.strings.js
var strings =
  {
    cmd1Caption: "Botón 1",
    cmd2Caption: "Botón 2",
    cmd3Caption: "Botón 3",
    cmd1Clicked: "Ha pulsado en el primer botón",
    cmd2Clicked: "Ha pulsado en el segundo botón",
    cmd3Clicked: "Ha pulsado en el tercer botón",
  };

Cuando el navegador solicita el archivo App.strings.js con los ajustes del navegador para solicitar contenido en castellano, la petición acabará en nuestro handler, que conoce el idioma esperado por el usuario (via la propiedad CultureInfo.CurrentUICulture). Primero busca un archivo App.es-ES.strings.js. Al no encontrarlo, busca la versión App.es.strings.js, que sí encuentra y devuelve al cliente. El resultado es:

Intl_Nav_5

Tanto el contenido de los botones como el mensaje mostrado por Javascript aparecen en castellano. Al igual que con los archivos .resx, ahora en el servidor tendremos archivos Javascript con versiones de los textos para cada idioma. El handler se encargará de devolver la mejor versión posible.

Este (largo!) artículo ha intentado describir de forma rápida las principales herramientas que permiten traducir de forma sencilla tanto aplicaciones como servicios web hospedados en IIS como aplicaciones de usuario escritas en JavaScript. Y recordad que todo esto empieza con una simple línea de configuración en web.config, que no está nada mal. Aprovechadla!

Carta abierta a Panos Panay: Hay salvación para Windows Phone?

Con una caída en ventas de un (atención) 73% año a año, la situación sólo puede etiquetarse como de catastrófica.

(Actualización 3 de Mayo – Intel ha cancelado – por lo que parece – la gama Atom de procesadores. Ver más al final del artículo).

Acaban de publicarse los resultados financieros de Microsoft para el último trimestre del año, y mientras todas las secciones muestran una salud envidiable – para los tiempos que corren – hay un apartado con una tremenda mancha en rojo: la división de móviles. En cambio, la salud de Office parece inquebrantable (con más de 22 millones de usuarios), Azure está (valga la redundancia) por las nubes y hasta los resultados en publicidad se incrementaron en un 18% considerando la competencia en el segmento.

En cambio, en los últimos tres meses sólo se han vendido poco más de 2 millones de unidades (2,3 para se más exactos) de móviles Lumia. Dos millones. En comparación, Samsung vendió 81 millones de teléfonos en el primer cuarto del 2016.

Recuerdo hace cuatro años cuando vi la primera presentación de la gama Surface: en la mayoría de los casos denostado por la prensa y usado para hacer burlas a Microsoft, nadie entendió el concepto. El problema original de la gama Surface es que era, sistemáticamente, comparado con o bien las tabletas de por entonces (léase: el iPad) o con portátiles – y no era ni una cosa ni la otra.

Presentación de Surface

Recuerdo a Panos Panay en aquella presentación junto a Steven Sinofski y debo decir que no me caíste en gracia, quizá porque no entendía que estabas hablando de un proyecto que sentías como personal y no como yo, que lo veía como un “producto más” de la casa. Y es que esa ha sido la sensación que, desde entonces, he tenido con cada presentación de Panos durante todos estos años, una maravillosa sensación de que no hablas de un “producto” (por mucho que insistas en llamarlo así en cada presentación) sino en un hito personal. Me gusta eso.

Hoy, cuatro años más tarde, la gama Surface (y Surface Pro y Surface Book) no solo se han convertido en un departamento que da beneficios a Microsoft sino que ha creado una nueva gama de producto, un nuevo segmento en el mercado que hasta ahora no existía: los “convertibles” o “2 en 1”. De ser ignorado, denostado, usado para hacer burlas, ha pasado a ser copiado por los mayores fabricantes. El “summum” ha sido el iPad Pro.

Yo nunca creí que Surface estuviese orientado a convertirse en un segmento de negocio pensado para dar un beneficio económico directo a Microsoft, sino más bien como un revulsivo para el resto de la industria – los OEMs – que llevaban años, décadas, haciendo sistemáticamente lo mismo: portátiles aburridos, negros, todos iguales, de plástico, con mínimas diferencias entre unos y otros, porque se consideraban como “consumibles”, simples herramientas como si de un martillo se tratase: lo compras, lo usas, lo guardas en la caja, y cuando se rompe o se oxida te compras otro y ya está. En cambio la competencia (Apple) construye máquinas que, no solo hacen impecablemente su trabajo – sea el que sea, desde consumir medios en el iPad a crearlos en los Macbooks o Macbook Pro – sino que además hacen a sus propietarios disfrutar de una calidad de manufactura inmejorable y poseedores de un accesorio de diseño, digno de lucir, como si de un bolso de Prada o un reloj Omega se tratase. Un ordenador portátil jamás fue visto como algo digno de lucirse. Era el momento de cambiar eso y pensé que la gama Surface era ese recordatorio para Toshiba, Samsung, Acer: “dejad de hacer lo mismo, la gente espera más”. Apple lo entendió el primer día. Gracias Steve. Ahora te doy las gracias a ti, Panos.

Pero volvamos a nuestro asunto: mientras Surface se convierte en un segmento por sí mismo, la división de telefonía de Microsoft hace agua hasta el cuello. La gama Lumia se compone, precisamente, de los mismos elementos que han sido los portátiles hasta ahora: aparatos aburridos, negros, sin personalidad, cajas negras de plástico sin el menor rasgo distintivo. Son, de todo, menos dignos de admiración. Y para colmo, por dentro, donde podría estar el rasgo diferenciador, tampoco hay nada digno de mención.

Para colmo de males, Microsoft parece no creer tampoco en que puedan diseñar un teléfono digno de convertirse en algo especial. Posiblemente las nuevas directrices de la compañía (apertura a todas las plataformas) han conseguido que utilizar Windows Phone no sea mejor en ningún aspecto: Office se encuentra disponible tanto para iOS como para Android, Cortana es multiplataforma, el concepto “Metro” ha sido totalmente abandonado en favor del ubicuo “menú hamburguesa” y otro largo etcétera de características ya no son coto cerrado o distintivas de Windows en su variante móvil. Volcados en “un sólo Windows”, parece que Windows Phone es el hijo bastardo, el que no se acopla en ninguna categoría, el que no tiene cabida en la familia. Una única característica los mantiene con vida, Continuum, o la posibilidad de utilizar un teléfono como si de un ordenador personal se tratase. Aunque teniendo en cuenta que sólo la gama más alta (el nuevo 650 no soporta Continuum) puede aprovecharlo, es como si no existiese – para la mayoría.

El verano pasado te pusieron al frente de la división de teléfonos de Microsoft. Entiendo que no has tenido tiempo de mucho, particularmente en plena fase final del desarrollo del Surface Book (y del Surface Pro 4). Y se notó en la presentación que diste de la gama 950 y 950XL de los hoy casi difuntos Lumia: no sentí esa pasión personal en el producto, aunque creo que hiciste un buen trabajo dándolos a conocer a la prensa. No son hijos tuyos, ya estaban hechos y te tocó la parte final del proceso: presentarlos.

Hoy por hoy no hay planes públicos para una nueva gama de dispositivos. Hoy por hoy sigo usando mi anciano Lumia 920 cada día con la última versión de Windows 10 que recibirá – porque también habéis abandonado el desarrollo del sistema operativo para los que, en su día, fueron los “buques insignia” de la gama. Sigo usando Windows Phone porque es realmente la plataforma que se adapta a mí, y no al revés. No soy usuario de “miles de apps”, porque siempre me ha gustado la capacidad de integración de la información de Windows, los “live tiles”. Programo en todas las plataformas, las conozco por dentro y por fuera, veo cómo avanzan con nuevas posibilidades excepto, precisamente, la que más me gusta. Mientras, el resto de la industria está haciendo suyos conceptos originales de Surface y Windows 8 (los “2 en 1”, aplicaciones lado a lado en iOS o, rizando el rizo, el concepto de “ventanas” en Android N).

Lo más probable es que haya directrices para “matar” la gama Lumia. Algún que otro OEM puede fabricar móviles con Windows 10 (HP tiene un teléfono – el Elite X3 – con todas las papeletas para convertirse en todo un referente), pero los fans de la plataforma queremos algo más, algo distintivo, algo digno de lucirse. Queremos un sistema operativo digno de usarse, digno de ser soportado y no de un hijo bastardo que hay que tener porque algo hay que tener.

Las filtraciones indican que no veremos nada hasta el año que viene – cuando puede (sólo puede) que ya sea tarde. Seguro que tienes una agenda preparada, más que probablemente estés jugando con prototipos locos de lo que podría ser un “Surface Phone”. Quizá escojas un procesador Intel en lugar de ARM y quizá, sólo quizá, oigamos algo como “el teléfono que puede reemplazar tu portátil”. El Surface Phone. Mientras tanto, le daré cariño a mi 920 y lo seguiré usando hasta que probablemente diga “basta”. Entonces tendré que decidir que, quizá, Windows Phone ya no existe y simplemente tenga que usar otra herramienta.

Actualización: Las noticias de este fin de semana parecen anunciar el final de la gama Atom de Intel, por lo menos en el segmento más móvil – las gamas Atom de procesadores. Es probable que Intel permanezca, pero por el momento centrándose en gamas medias-bajas de convertibles 2-en-1 con Pentium y Celeron. Fuente: PC-World

Categorías:Opinión Etiquetas: , , ,

Padeces “NuGet-itis”?

Cuando tú, programador, haces click en “Nuevo Projecto” en Visual Studio y el asistente termina, qué es lo siguiente que abres? Si la respuesta es agregar incluso más componentes de NuGet (o similares) puede que padezcas NuGet-itis.

Lo siento, es que hoy me he mosqueado. Estaba haciendo unas pruebas, necesitaba implementar un par de APIs básicos para hacer experimentos. Así que nada, abrí VisualStudio y creé un nuevo “proyecto Web/Web API”. Hasta ahí todo bien hasta que di a “Ok” y apareció ésta monstruosidad en mi entorno de desarrollo:

SimpleWebAPI-1

Lo triste no eran sólo las dependencias… lo espectacular era lo que había como “contenido” de mi nuevo servicio web:

SimpleWebAPI-2

Y eso que era un “Web API en blanco”, para añadir un par de cositas y probar unos servicios que tengo para probar. Es simplemente ridículo.

La idea de OWIN (para empezar) es un runtime “minúsculo” (ejem!) para el desarrollo de aplicaciones web con la mínima carga en el servidor. Obviamente, el que hizo la “plantilla” de Web API no leyó las especificaciones. Bootstrap? JQuery? Para un Web API? Pero qué locura es ésta? Y caí en cuenta… “Es que ahora, TODO va así”.

Recordé de repente a un compañero, con la tarea de utilizar una serie de archivos que contenían argumentarios para centros de llamadas, con contenidos codificados en BASE64. Se pasó tres días (literalmente) en buscar una implementación de BASE64 para Java, ignorando la que yo le escribí en media hora que hacía sobradamente el trabajo. O programadores que según empiezan un proyecto abren la consola de componentes para añadir “lo que necesitan”, aunque ello implique arrastrar (en la mayoría de los casos) enormes cantidades de código que ni siquiera necesitan (como el caso de mi proyecto “Web API”).

El problema de depender de NuGet (o similares) para realizar hasta el más simple de los proyectos es que en muchos casos las dependencias que arrastra determinan en qué forma hay que realizar el resto del proyecto. Me pongo en el ejemplo de varios tutoriales que muestran cómo añadir autentificación a una aplicación web: sólo funcionan si estás haciendo una aplicación web “desde cero”. Pero, qué pasa cuando ya tienes esa aplicación web hecha y simplemente quieres añadir la autentificación? Simplemente no puedes (os recomiendo fervorosamente que intentéis hacerlo siguiendo las instrucciones del tutorial). O eso, o te toca reescribir prácticamente la totalidad de tu aplicación – cosa que en muchos casos es incluso más caro que hacerte la autentificación a mano desde cero.

Entity Framework, OWIN, MVC, MVVM, todos son frameworks para conseguir hacer cosas que en muchos casos te “obligan” a desarrollar en cierta forma. Si tenías una base hecha, simplemente no puede ser portada directamente al nuevo entorno. O el mero hecho de añadir Entity Framework, que puede suponer un verdadero quebradero de cabeza de integrar con tu infraestructura de datos actual – o el error de asumir que tienes que usarlo absolutamente para todo, y es cuando acabas retorciendo el framework para que “tambien sirva” para lo que tenías antes, sin pensar que, simplemente, no te hace falta.

El problema finalmente reside en que muchos programadores modernos sólo saben usar este tipo de frameworks – y tristemente porque muchos leyeron el tutorial equivocado.. Les quitas Entity Framework o cualquier “sabor” de MVC o MVVM y simplemente están perdidos. Si, Entity Framework es absolutamente increíble, pero en su contexto – no sirve para todo. Al igual que muchos otros. Y el problema se agrava cuando hay múltiples opciones para un framework: no se sabe cual escoger, porque “todos hacen lo mismo” y todos son “maravillosos”.

Otro ejemplo, un “curso” de la MVA (Microsoft Virtual Academy) acerca de programación multiplataforma con Xamarin. Lo siento, pero eso no es un curso, eso es un tutorial de cómo pegar trozos de componentes – siendo generoso. Hace falta realmente Prism para hacer un “Hello World” en Android? No. Ni de lejos. El problema es que hacer el 90% del tutorial dejó de consistir en programación universal de aplicaciones para Android, iOS y Windows Phone para convertirse en cómo configurar una aplicación MVVM  – de una sola pantalla. Una sola! Queréis un excelente libro al respecto? No dudéis en descargar el ebook gratuito Creating Mobile Apps with Xamarin.Forms, Preview Edition. Ni MVC, ni NuGet ni nada – simplemente cómo se programa – porque el autor del libro asume que lo que haga la aplicación es cosa tuya. Y que sabes hacerlo.

Parece que hoy, todo lo que no se pueda escribir en doce (o mejor cinco?) líneas de código es “arcaico” o está mal hecho o “pues anda que no te has complicado la vida”. Ni mucho menos. Los componentes ayudan, pero cuando se limitan a una función concreta dentro de nuestro proyecto y, sobre todo, se adaptan a nuestra forma de trabajar. Si un framework, una librería, un componente define un cambio estructural en un proyecto, se debe buscar otra alternativa.

Programamos máquinas. Cuanto más liviano sea el proyecto, el ejecutable, el servicio web, mejor será el rendimiento de nuestra solución. No todo viene envasado en un componente de NuGet. A veces (la mayoría) toca mancharse las manos y hacer las cosas por uno mismo. Y lo mejor del caso, es que muchas veces esa es la forma correcta de hacerlo.

Categorías:Desarrollo, Opinión

Windows 10 en una palabra: Convergencia

Microsoft presentó las nuevas versiones de Windows 10 al público hace unos días y de todo lo visto en las más de dos horas que duró el evento hay una idea principal sobre todas las demás: convergencia total en la plataforma. Vi el evento con sumo interés y esto es lo que vi – junto con un par de guindas de aportación propia.

Sinceramente, esperaba un evento de esos de “una hora” con una demo de las nuevas “builds” de Windows 10, y esperaba con particular interés verlo funcionando en teléfonos. Con lo que no contaba era con las acrobacias de presentar concepts tecnológicos – Microsoft normalmente no hace – corrijo: no hacía – esas cosas. Los resultados han sido bastante espectaculares y no me refiero a los usuarios de Windows en general sino a algo que no había visto hasta ahora: a la prensa “le mola” Microsoft. Raro.

Pero vayamos por partes. El principal interés del evento era el camino que está tomando Windows. Tras la mediocre acogida de Windows 8 y el nuevo paradigma de interface de usuario (los “Live Tiles”) la cosa no pintaba muy bien para Microsoft en un segmento para ellos fundamental: la empresa. Yo, como usuario y desarrollador, no he tenido el menor problema para adaptarme al nuevo interface de usuario y usarlo en diversos entornos (PC de sobremesa, tablet y móvil) no ha significado un gran esfuerzo de adaptación. Pero al resto del mundo no le ha ido tan bien.

Con Windows 10 Microsoft ha intentado recuperar a las empresas. Lo más interesante es que no ha sido (como yo me temía) la total bajada de pantalones que la prensa más recalcitrante estaba demandando (volver al interface de usuario de Windows 7). Sigue habiendo “Live Tiles”, pero ahora contenidas en lo que antaño era nuestro clásico menú de inicio. Encuentro la solución apropiada para la mayoría de los usuarios (aunque obviamente eso es opinión mía) y no han arruinado la (para mi gusto) excelente experiencia en dispositivos táctiles.

“So, it’s official?”

La llegada de Cortana a los PCs era un secreto a voces – Joe Belfiore hizo el anuncio dando a entender que todo el mundo lo esperaba y fue más una confirmación oficial que otra cosa.

Cortana on PC

Joe dio a entender en un par de ocasiones que lo que estábamos viendo eran versiones muy (muy!) preliminares del software y que esperásemos algún que otro “glitch” durante la presentación. Supongo que Joe “confirmando” cada respuesta de Cortana con un sonoro “Yes! Exactly!” era una forma de desactivar el reconocimiento de voz para evitar disgustos…

Y mientras que yo no me veo charlando con mi ordenador animadamente, sí veo un lugar donde Cortana en un PC puede funcionar a la mil maravillas: en los hogares con niños, en esos bonitos PC “todo en uno”. Los adultos (y no digo que no podamos cambiar) estamos hechos a interactuar con máquinas de ciertas formas (teclados, ratones)… no esperamos que una máquina pueda interactuar con nosotros. Pero al igual que a los adultos ahora nos cuesta usar aparatos que no tengan la pantalla táctil (se nos va el dedo a los iconos de la pantalla) o los niños no conciben mantener una conversación con Facetime o Skype sin activar el vídeo, dentro de poco tampoco concibirán usar un teclado para usar un ordenador.

De “Windows Phone” a “Windows on Phones”…

… y el matiz es importante. Pero vayamos por partes.

Por fin pudimos ver lo que todos llamábamos “Windows Phone 10”. Debo decir que no se me hizo particularmente espectacular: no había nuevos detalles gráficos espectaculares, ni un nuevo concepto de interactuar con el usuario, ni cambios brutales en los actuales mosaicos a los que estamos acostumbrados. Si, mejoras sueltas (como que ahora las aplicaciones recién instaladas aparecen arriba del todo en la lista para encontrarlas fácilmente) o un centro de notificaciones mejorado y sincronizado con todos los dispositivos.

Pero sí vimos un Office completamente nuevo, Outlook en el teléfono y el insistente recordatorio de que son aplicaciones universales, que es “exactamente el mismo código” compartido entre PC y teléfono. Y nos lo recordaron una vez, dos veces, tres veces… Si, he escrito aplicaciones universales (para PC, tablets y móvil) y me consta que el código fuente es “casi” el mismo. Y la palabra clave es el “casi”. No se puede “usar exactamente” el mismo código fuente en las dos plataformas, simplemente porque la forma de interactuar con las mismas es distinta. Pero tanta insistencia en el hecho me hizo pensar si usar “exatamente el mismo código fuente” era posible. Y que ya no se llame “Windows Phone”, sino “Windows ON Phones”.

Y partiendo de la base de que lo que voy a decir a continuación es totalmente de mi cosecha, voy a apuntar dos detalles de dos eventos totalmente diferentes que se juntaron en mi cabeza tras la presentación. Lo primero fue fijarme en un pequeño detalle apenas visible y del que no se hizo absolutamente ninguna referencia durante la presentación pero que, obviamente, no ha pasado desapercibido (y no, no soy el primero en fijarme ni mucho menos): un pequeño elemento en el teclado en pantalla de los teléfonos que nos recuerda, sospechosamente, a los “thumbtracks” que usaban los portátiles de antaño para el control del ratón antes de la llegada de los mousepads:

Nuevo thumbtrack en Windows Phone

Lo visteis? Si? Esa cosita entre las teclas “z” y “x”? Si, parece lo mismito que tenían antes los portátiles para manipular el ratón:

Hardware and virtual thumbtrack

Y para qué quiero yo un “ratón” en un “móvil” con aplicaciones hechas para pantallas táctiles? Eso me recordó algo que había visto presentado en el pasado CES (Consumer Expo Show) de Las Vegas en enero, un nuevo teléfono de Asus con unas características hardware un tanto… excesivas? El nuevo Asus Zenfone 2:

Asus Zenfone 2

A ver… un móvil Android con un procesador Intel Atom de cuatro núcleos, 4 gigabytes de memoria RAM y cinco pulgadas y media de pantalla? En serio?

¿Y si ese teléfono jamás se hubiese diseñado para correr Android? ¿Y si ese teléfono se hubiese diseñado para correr Windows? ¿Y si los próximos “móviles con Windows” fuesen simplemente tabletas algo más pequeñas que las actuales “siete pulgadas” y radio celular integrada?

Ese teléfono podría ejecutar Windows (incluso XP!) con más soltura que muchos PCs de escritorio actuales. Ese móvil puede ejecutar (tal cual!!) Photoshop! O la suite completa de Office! O… cualquier cosa que corra en un PC de escritorio actual.

Es un PC Intel completo con una pantalla de cinco pulgadas (y media).

Alguien ha unido ya los puntos? Un control thumbtrack en el interface de usuario de Windows Phone y un teléfono que podría ejecutar aplicaciones Win32 de toda la vida. Y creo que por eso ya no lo llaman “Windows Phone”… lo llaman “Windows ON Phones”.

Una sutil diferencia. Pero menuda diferencia. E insisto: todo eso es cosecha propia… seguro que hay otra explicación, pero a que ésta es muy divertida?

Y hubo más, mucho mas…

Tras Windows On Phones presentaron las nuevas funcionalidades de Xbox – y todas ellas convergían en lo mismo, en la unificación de la experiencia con Windows. Al igual que el teléfono, la Xbox se convierte en una extremidad más del ecosistema alrededor del usuario, se unen PC y consola. Podremos jugar en nuestra tableta sin usar el televisor, igual que ahora podemos ver la televisión con Smartglass. Y (por fin!!) podremos jugar juntos usuarios de PC y consola. Hasta los videojuegos se convertirán en aplicaciones universales? Eso parece viendo como Fable viene al PC.

Surface Hub fue otra demostración inesperada, a pesar de las consistentes filtraciones de que iba a presentarse un nuevo formato de hardware – aunque todo el mundo esperaba una posible versión nueva de las tabletas Surface Pro. Más que un nuevo formato hardware lo que yo vi fue un excelente ejercicio de integración de productos y funcionalidades ya existentes – en un envoltorio precioso, enorme (84 pulgadas!) demostrando nuevamente que Microsoft no solo piensa en elementos sueltos sino en su total integración con el resto de productos: Skype, RDP avanzado (si, era básicamente el protocolo de escritorio remoto ya conocido de Windows llevado a una nueva extensión) funcionando todo junto en un interface de usuario especializado.

Y la guinda del pastel, un proyecto que Microsoft ha conseguido mantener en secreto hasta el día de la presentación: HoloLens. Más un ejercicio acrobático que una presentación de un producto, Microsoft fue más allá de lo que normalmente estamos acostumbrados con este tipo de presentaciones. Tras ver el vídeo de introducción mis pensamientos fueron “ah, mira, bonito, un concept interesante”… tras lo cual se destaparon una demo “en vivo” que absolutamente nadie podría haber esperado.

Al igual que Cortana no veo HoloLens como una herramienta de uso generalizado hoy por hoy, sino más bien un desarrollo por aumentar las formas de interactuar los usuarios con las máquinas. Seamos realistas: no espero que HoloLens tenga la menor utilidad en el momento de lanzarlo comercialmente – a finales de este año. Pero si veo fascinante el esfuerzo que ha puesto Microsoft en el diseño del producto, en atreverse a encontrar infinidad de nuevos problemas y a solucionarlos.

Los asistentes a la presentación pudieron probar HoloLens. Y a pesar de que lo que probaron fue algo que nada tenía que ver con el producto que pudimos ver expuesto en el escenario (probaron los prototipos) y que la mayoría concluyeron en que en su estado actual es algo básicamente inutilizable (por lo incómodo), sí parece que hay consenso en que la tecnología funciona. Y parece ser que muy, muy bien.

Y tengamos presente que hablamos de la primera versión de un producto. Qué podríamos esperar con los avances tecnológicos para “HoloLens 3”? Nos toca esperar ver los SDKs y, especialmente, ver las ideas que los desarrolladores se atreven a llevar a cabo con él. “Minecraft holográfico en el salón de tu casa” puede estar muy bien, pero sólo para un rato. Pero la plataforma existe y lo más importante: funciona. Ahora nos toca a los desarrolladores crear las experiencias.

Ha ocurrido algo muy curioso: Microsoft mola.

Categorías:Opinión Etiquetas: , , ,

KB3004394: Vaya día…

Soy extremadamente celoso de la seguridad y, cuando un buen día, empiezan a pasar cosas muy, muy raras con varios equipos del trabajo, no pude por menos que intentar averiguar lo que estaba pasando. Esto es lo que aprendí y como, lo que me parecía más improbable, era la razón de todo.

La primera señal de alarma llegó a primera hora de la mañana: en uno de los ordenadores de la oficina se desactivó (por las buenas?) Windows Defender. Si, ya lo sé, hay cosas mejores pero qué le vamos a hacer – es lo que hay. Eso, y las malas costumbres (ejem) de los usuarios (ejem, ejem) me hicieron temer lo peor.

Mi primer instinto cuando encuentro un antivirus que no se activa o, simplemente, no aparece, es ir directo al teclado: Windows+R, “regedit”. Lo que normalmente espero es la tranquilizadora imagen del consentimiento de seguridad de Windows:

UAC

Lo que me encontré (y espero que comprendáis que no haya foto – no estaba la cosa para eso) es el editor de registro abriéndose directamente, sin ningún tipo de confirmación. Un antivirus desactivado y UAC desactivado al mismo tiempo (obviamente el usuario jura y perjura que no lo ha desactivado manualmente) me ponen en modo paranoico: tenemos un gamusino.

Lo primero fue restablecer UAC (con su correspondiente reinicio) y verificar que, una vez vuelto a arrancar, el ajuste era efectivo y no volvía a desactivarse. Eureka! Pero espera… hay algo raro…

Al volver a intentar ejecutar RegEdit y tal y como esperaba, apareció el mensaje de confirmación de UAC, pero con otro elemento mosqueante: en lugar de indicar “Microsoft Windows” como Editor Comprobado aparece como “desconocido”. Sigo mosqueado. Más aún cuando incluso al intentar abrir el visor de eventos (EventVwr) también me pide autorización – raro si tenemos en cuenta que el visor de eventos no lo requiere en condiciones normales. Intentar reactivar Windows Defender terminaba también en un error.

Intentar instalar Security Essentials daba otro error durante el proceso: 0x8004FF91. Adelante, buscad ese error (bueno, hoy no creo que tengáis mucho problema para encontrar referencias) y veréis que, ni es nuevo, ni hay documentación al respecto. Vamos bien…

Tras un análisis en profundidad del ordenador y no encontrar absolutamente ningún indicio de un comportamiento extraño, intenté tranquilizar mi espíritu pensando que podría haber sido un intento de infección de algún tipo de virus o troyano que se paró y dejó el ordenador en ese estado: nada escondido, ningún ejecutable extraño, ninguna traza en registry u otros puntos de inicio… nada.

Continué el día – o mejor dicho, intenté continuar el día mientras pensaba si era buena idea hacer un “rollback” a un punto de restauración anterior, seguir mirando cosas o directamente “pegar un leñazo” (término técnico para “reinstalar desde cero”). No había pasado ni media hora cuando otro ordenador empezó a hacer también cosas raras… y luego otro…

No voy a aburriros con una descripción detallada de nuestra arquitectura de red e interconexiones con otros centros – solo os diré que empecé a mirar cosas realmente esotéricas por todas partes (incluyendo si alguien había instalado WireShark en el cortafuegos y se había dejado el driver de captura activado – no os digo más). Pero me recuerdo a mí mismo en mitad de la sala de producción, buscando “algo” mientras decía en voz alta [sic] “o tenemos un gamusino o una tremenda cagada de Microsoft con un parche…”.

Mi sensación era como si los ejecutables de Windows hubiesen sido reemplazados por versiones alteradas, sin la firma digital de Microsoft. Y a nada que lo penséis sabréis que es muy mal indicio. Recordé que mi PC Windows 8 tiene un Windows 7 instalado en una partición que no uso desde hace más de dos años (desde que monté 8, vamos). Busqué RegEdit.exe y lo comparé con la versión extraída desde uno de los PCs con comportamiento raro. Para mi “sorpresa” eran idénticos (no lo esperaba… imaginé que alguna actualización en dos años habría tocado regedit, pero no… ninguna). La parte mala (o buena?) es que, siendo idénticos, significa que ambos portaban la firma digital apropiada de Microsoft – no había ejecutables reemplazados (“yupi?”)

Parecía que el problema se originaba en los certificados para verificar los ejecutables pero, cómo era eso posible?

La solución llegó en forma de un boletín en la web de soporte de Microsoft: la actualización KB3004394 está rota.

La idea de la actualización KB3004394 es sencilla: los certificados digitales que usa Windows para garantizar que las conexiones seguras son, eso, seguras se actualiza hasta ahora una vez a la semana. El problema (y esto es de mi cosecha) es que desde que se supo la brecha de seguridad en Sony y que se habían conseguido robar sus certificados digitales, era perfectamente posible “fabricar” tanto ejecutables como certificados para servidores perfectamente válidos y que podrían usarse para fines maliciosos. Así que Microsoft pensó que no sería mala idea no solo revocar ciertos certificados sino que los ordenadores lo hagan ellos solitos solo que más a menudo: una vez al día.

La idea no es mala – salvo el posible ancho de banda que pueda conllevar el proceso, pero el problema es que el parche que (asumo) revoca los certificados sospechosos y cambia el comportamiento de Windows para actualizarlos “rompe” PCs con Windows 7 (y Windows Server 2008) instalado. Eso y que al destruirse la cadena de validación de certificados, muchos programas de terceros (como Security Essentials) fallan al instalarse con el (ahora conocido) error 0x8004FF91 que podríamos catalogar como “error al verificar la firma digital de uno de los componentes del programa”.

El siguiente paso es montar el parche KB3024777 y ver qué pasa. Revierte el comportamiento de Windows 7 si, pero: reconstruye las cadenas de certificados?

Y lo que más me preocupa: si el ordenador no puede verificar la cadena de certificados AHORA, con las cadenas de certificados rotas… ha hecho Microsoft un parche que, efectivamente, toca las cadenas de certificados sin ir “apropiadamente” firmada digitalmente? Porque imagino que sabéis lo que eso significa, verdad?

Ups…