Elegir un portátil

Después de un tiempo sin estar a la última en cuanto a nuevas tecnologías sobre ordenadores, cuando quieres ponerte al día descubres que hay un buen número de novedades, nuevas opciones y posibilidades que complican la tarea de elegir un nuevo hardware.

En el caso de portátiles, con la incorporación de los ultra-portátiles y toda una gama de porcesadores con parecido nombre, la tarea de elección es complicada.

En cuanto a ultraportátiles, ya casi todas las marcas tienen uno. La verdad es que al principio me llamaban la atención, pero finalmente pienso que la pérdida de potencia y usabilidad no se ven compensadas por las ventajas que otorgan su reducido tamaño y precios altamente competitivos.

Aún así, la movilidad era algo necesario, por lo que los portátiles de 13.3” dan una relación buena entre rendimiento y tamaño justo, sin dejar de haber opciones de precio interesantes.

En cuanto a procesadores, si queremos Intel, tenemos que elegir entre las familias TXXXXX, PXXXXX, UXXXXX. Las familias U pertenecen sobre todo a ultraportátiles. Entre las T y las P, la diferencia principal es el consumo más eficiente de la familia P. Se puede ver información en detalle muy clara en este post. Este también fue un factor determinante en la elección.

Finalmente me decanté por el Toshiba u400-200, que sin ser un ordenador fuera de serie, cubre bien todas las necesidades que buscaba.

La compatibilidad con Linux era un factor de decisión importante, por lo que el Toshiba u400-200 también era una buena elección. Parece que los problemas que había con la versión de Ubuntu 8.04, que fueron subsanados en la 8.10. Todavía lo tengo con Vista, pero espero hacer la migración a Linux pronto.

Rendimiento de WordPress en VPS

Tener un WordPress en un servidor virtual con pocos recursos puede hacer que el rendimiento sea bastante pobre y la ejecución sea muy lenta. Esto puede pasar especialmente en el panel de administración, donde hay múltiples peticiones htp. 

Esto tiene solución, siempre que el tráfico en el sistema no sea demasiado alto. Una cosa que da muy buen resultado es ajustar la configuración de Apache, que viene por defecto configurado para sistemas más potentes. 

Lo primero, y que da muy buen resultado inmediato, es bajar, o incluso eliminar la directiva KeepAlive del archivo de configuración de Apache. Lo mejor sería dejarlo “On” pero con un KeepAliveTimeout bastante menor que los 15 segundos que vienen por defecto. Con dos segundos sería suficiente, pero podemos evitar que se abran y cierren conexiones innecesarios dejándolo en 5-6. 

Esto debería ser suficiente, pero se puede ir más lejos eliminando módulos innecesarios. En este post hay algunos detalles más. 

Si la cosa se pone seria, siempre podemos elegir otro servidor web, tipo Cherokee.

Renovando Alojamiento Web

Elegir un hosting del que no has oído hablar es cómo consultar a los arcanos o mirar en los posos del café, donde la carta de la muerte tiene muchas probabilidades de aparecer con consecuencias desastrosas. No sólo ya muchas veces de pérdida de servicio, también en numerosas ocasiones de información valiosa.

El año pasado por estas fechas escribí acerca de algunas experiencias que tuve en cuanto a hosting. Es un servicio esencial del que más vale que te cuenten que guiarte por lo que puedes leer en los servicios que ofrede el proveedor del hosting. Tras algunas prosprecciones, he decidido quedarme con OVH, donde tengo un servidor dedicado. Es uno de los pocos proveedores que se atreven a poner un foro donde los clientes les ponen a caldo (y vaya si lo hacen), lo cual me inspira confianza. Tienen bastante documentación, lo que ayuda a no tener que contactar con el servicio técnico que, por otro lado, creo que no es lo mejor según me han contado.

En cuanto a VPS, también he renovado con VPSLand, aunque aquí he tenido algunas dudas más, ya que el servicio está en EE.UU. y añade algunos problemas de latencia y el hecho de tener IP no española. Por otro lado el servicio técnico es bueno y el precio no es desorbitado, pero es mejorable.

Facebook supera (ya oficialmente) a MySpace

Aunque los datos oficiales, de Nielsen en este caso, van más tarde que la realidad, ya es un hecho. Facebook recibió más tráfico que MySpace. Y no es de extrañar. MySpace parece avocado a ser otro Tripod o Geocities, sitios que en su día fueron pioneros, pero que se han quedado sin nuevas metas o un rumbo claro a seguir.

Ciertamente, si MySpace ha aguantado tanto es por su carácter abierto, cosa en la que se contrapone a Facebook, por lo que el logro tiene, si cabe, más transcendencia. No me atraía demasiado Facebook en un principio… pero en esto de las redes sociales, el famoso refrán “Dónde va Vicente…. donde va la gente” es de lo más aplicable. A Facebook va a ser difícil quitarle esa red a la que tanta gente ya es adicta.

Vía OjoInternet

¿Qué hay de los microformatos?

Hace un tiempo estaba en boca de todos, incluso Bill Gates aparecía como abanderado de este tipo de parametrización de la Web Semantica, pero realmente parece que el proyecto está algo parado a falta de que alguien (posiblemente Google) le de un impulso definitivo, si es que le da.

Los microformatos parecen la panacea de la categorización web. Se trata de estructurar de tal forma el contenido de las páginas HTML que los buscadores y robots pudieran identificar ese contenido y darle un significado. Como ejemplo, uno de los más populares es hCard, para información de contacto, sería:

<div id="contact" class="vcard">
   <h2>Contacto</h2>
   <h3 class="fn">Marcos Labad</h3>
   <p>Contactame por email en
    <a class="email" href="mailto:[email protected]">[email protected]
</a>,
    o en esta dirección:</p>
   <div class="adr">
     <div class="street-address">Calle Las Nubes</div>
     <div class="locality">Madrid</div>
     <div class="region">Spain</div>
   </div>
</div>

De esta forma cualquier buscador del mundo, podría identificar inequívocamente que esta zona de información es información de contacto y parametrizar calle, provincia, email, etc…

Otro realmente interesante , aún en pañales, es el hProduct, donde se especifican atributos de productos on-line. Sería estupendo para comparadores de precios tipo Kelkoo. En su día, cuando hacíamos crawling de las tiendas para capturar esta información, estábamos indefensos ante cambios de formato HTML en los productos en las tiendas.

Parece la gran solución! Una vez más, estamos ante la filosofía 2.0, donde los usuarios o los creadores de contenido “trabajamos” para los buscadores u otros servicios.

Si ya nos quejamos de la dependencia en Google para muchas cosas, no me puedo imaginar las ampollas que levantaría tener que, además, estructurar la información como nos digan, pero creo que ahora mismo sólo Google podría dar el impulsar este proyecto si lo incluye de alguna manera en sus resultados.

Google adoptó el hCard hace algún tiempo para Maps, y se utiliza el microformato elemental rel-nofollow de forma generalizada, pero no ha vuelto a dar un paso significativo en la adopción de microformatos. Algunas razones podrían ser:

  • El éxito de Google se basa en que si alguien busca “peras”, le sale el mejor resultado en cuanto a “peras”, da igual que sea un producto de una tienda, un mensaje en un foro, o un artículo de un periódico ¿Que podría hacer mejores resultados categorizando aún más la información? Quizas sí, pero está claro que no es su prioridad ahora mismo y posiblemente sería bastante costoso hacerlo bien.
  • Por otra parte, Google ya es parcialmente “semántico”, si entendemos como tal que identifica partes de la web y entiende a qué se refieren. Como ejemplo, este resultado de foros:

    En el primer resultado identifica que es un foro y las entradas que tiene, aunque es cierto que no siempre es capaz de capturar esta información, parece que no está del todo depurado.
  • Hay muchísimos tipos de información en al Web. Es posible que Google tarde menos en categorizar algorítmicamente este tipo de información, como en el ejemplo anterior de los foros, que la comunidad web en describir y adoptar todo ese tipo de formatos como estándard

Algo más de información en:

Ojomicroformatos.

Microformatos: La web semántica para torpes.

Microformats.org

La supuesta dependencia en SEO y Google Analytics

Hay veces en la blogosfera que se arma un revuelo terrible por determinados hechos puntuales. En este momento es el caso, y es no ya por el descubrimiento, sino por ponerlo a disposición de la comunidad.

Ha sido Francois Derbaix, de Toprural.com, el que ha levantado la manta en un tema más que interesante: Las fuentes de tráfico según Google Analytics. Cualquiera que haya utilizado esta herramienta habrá quedado sorprendido por el alto porcentaje de tráfico procendente de Google, y habrá quedado pensando que, o haces SEO, o estás perdido.

Aunque cierto en parte, la verdad es que la configuración de Google Analytics favorece la contabilización del origen de las visitas de un usuario a Google (o cualquier otra fuente primaria) ¿Por qué? Analytics deja una cookie en el usuario identificando su origen. Esta cookie tiene una duración de 6 meses, y toda visita del usuario en esos 6 meses será atribuida a la fuente de tráfico desde donde vino. Es decir, que si te encontró en Google, entro en tu site 50 veces dede ese día, esas 50 visitas serán contabilizadas como origen “Google” (ojo, que podría ser Yahoo!, Ask, u otro sitio de referencia).

El criterio no digo que esté mal ni bien, ni siquiera que sea malintencionado por parte de Google para aumentar su notoriedad, pero conocerlo te da una mejor visión del tráfico que se mide.

De este post ha surgido un interesante debate del que se pueden aprender muchas cosas del funcionamiento de Analytics y formas de configurarlo. Si utilizas Google Analytics, no puedes dejar de leerlo.

Los cimientos de tu CSS con The Golden Grid

Muy interesante este simple pero útil proyecto, llamado The Golden Grid, cuya traducción sería algo así como la rejilla de oro. Se trata de un Framework de CSS. Si ya tenemos Frameworks de PHP, Javascript, Java… por qué no de CSS? Ya hay algunos por ahí circulando.

La principal ventaja es la rapidez en poder hacer un primer proyecto de maquetación o diseño desde abajo (lo más general) hacia arriba, cuidando los detalles más adelante, de forma rápida y con resultados de buena calidad. Lo peor es quizá salirse de ese modelo rejilla, que aunque es común a muchos diseños, puede ser una limitación. Abstrayéndonos un poco, realmente es lo que pasa en los frameworks de otras áreas.

Gracias Vanesa por el descubrimiento!

1234567890 segundos desde el Linux Epoch

Circula por Facebook la invitación al evento más original que he visto en los últimos tiempos. El lugar de reunión es el PC Linux de quien quiera participar y la hora será el 13 de Febrero de 2009 a las 23:31:30. En ese momento, se cumplirán 1234567890 segundos desde el Linux Epoch. Para acudir a la cita, sólo hay que inscribirse tecleando esta instrucción en tu terminal, que mostrará la citada cifra, o acudir a la web que lo conmemorará.

date +%s

EL Epoch es un punto de referencia inicial donde se basan sistemas lógicos.
En Linux está establecido el 01/01/1970. Fechas de otros sistemas populares:

  • Mac Os: 01/01/1904
  • Windows: 01/01/1601
  • DOS: 01/01/1980
  • Cobol: 01/01/1601
  • C#: 01/01/0001

Hay un gran grupo de sistemas o lenguajes que comparten el 01/01/1971 como PHP, Python, Java y  Ruby.

Borrar todas las tablas de una base de datos

Cuando llega el momento de borrar todas las tablas de una base de datos de MySQL desde el command line no queda más remedio que ir borrando tabla por tabla.

Pero me he encontrado por ahí una ingeniosa instrucción para hacerlo, una sóla línea de código en el command line:
mysqldump -u[USERNAME] -p[PASSWORD] --add-drop-table --no-data [DATABASE] | grep ^DROP | mysql -u[USERNAME] -p[PASSWORD] [DATABASE]
Los créditos del útil descubrimiento para Thingymajing.

Contar descargas de un archivo

Una consulta me ha hecho desempolvar un viejo script que tenía por ahí para contar los clicks que se hacían para ir a una url. Esto es igualmente válido para hacer tracking de downloads o descargas.

Supongamos en el script es invocado de la forna:

http://url_dominio/download.php?file=xxxxx.pdf

El script, que estaba escrito en php3, es a grandes rasgos así:

<?php

//RECUPERAMOS PARAMETRO

$url=$_GET[file]

// CONEXION BBDD
mysql_connect (“localhost”, “xxxxlogin”, “xxxpasss”);
mysql_select_db (“xxxxxxx”);

// INSERTAR O HACER UN UPDATE EN BBDD CON LA DESCARGA. TAMBIEN PODRIA IR A UN FICHERO LOG

mysql_query(“INSERT INTO log_table VALUES (XXXXXXXXXXX)”);

//CONSTRUIR URL FINAL

$url=”http://url_dominio”.$url;

//REDIRIGIR AL ARCHIVO CON DESCARGA

header(“Location: $url”);

?>

Importante no sacar nada, ni un error, ni un print, ni un echo, nada, antes de la directiva header(). Si sale algo, la redirección no se ejecutará.

Otra opción a la que podemos optar ahora es a utilizar una herramienta externa, como Google Analytics. De esta forma que no tenemos que hacer una tabla en la base de datos, construir el script y procesar los datos almacenados posteriormente. Hay un tutorial de Analytics que lo explica bastante bien.