Sergey Brin envía una donación de 500 mil dólares a Wikipedia

Luego de que Jimmy Wales inicie su solicitud anual de soporte para el mantenimiento de Wikipedia Sergey y su esposa a traves de su fundación realizaron una donación de 500 000 dólares con esto se garantiza que Wikipedia se mantenga por un tiempo más. Esta enciclopedia requiere por año aproximadamente 28,2 millones de dólares para mantenerse con lo cual la donación realizada por el cofundador de Google le viene muy bien a  la Fundación Wikipedia.

Fuente: mashable

Knol de Google, Unidades de Conocimiento

Knol, (contracción inglesa de la expresión unit of knowledgeunidad de conocimiento), es un proyecto de enciclopedia en línea desarrollado por Google Inc., cuyos artículos (llamados knoles) son escritos por autores (knoleros) o por un conjunto de ellos.

Una de sus características principales es que los knoles son creados y escritos completamente por el mismo usuario. Debido a que el nombre del autor es destacado dentro del artículo, cosa que en otras enciclopedias online como Wikipedia no ocurre, se incentivaría la redacción de knoles por parte de expertos en los temas, por lo que esperan que éstos alcancen una calidad aceptable en pocas ediciones. Adicionalmente, se permitirán múltiples knoles para un mismo tema, lo que estimularía el desarrollo de los mismos en afán de competencia por tener una mejor calidad.

En principio, la licencia con la que se publican los ‘knols’ es ‘copylef’ (“Creative Commons Attribution 3.0″), aunque puedes modificarlo incluso con “All rights reserved”. También puedes hacer que el artículo sea colaborativo, y establecer una lista de usuarios que pueden ayudar a editar cada ‘knol’ para poder mejorarlo poco a poco. Los lectores que entren en los ‘knols’ podrán dejar sus comentarios sobre los contenidos.

Enlace: Knol

Wikipedia – Datos técnicos de su infraestructura

La fundación Wikimedia cuenta únicamente con 9 empleados, el resto del trabajo lo hacen voluntarios ad-honorem. 9 empleados durante un año completo, ahí nomás –en sueldos- ya se van unos dolares.

Estas 9 personas (mas todos los voluntariosmantienen una infraestructura que alberga mas de 8 millones de artículospromediando, mantener cada artículo cuesta un dólar por artículo por año- escritos en cientos de idiomas diferentes.

Como cada artículo es modificado cada cierto tiempo por un lector esporádico y se guardan copias del artículo anterior hay mas de 110 millones de revisiones almacenadas, lo que la posiciona entre los 10 sitios con mas actividad en el mundo según Alexa. Crece a tal velocidad que duplica su cantidad de hardware, cantidad de visitas y ancho de banda consumido cada 6 meses aproximadamente.


  • Wikipedia.org recibe en promedio 30.000 peticiones HTTP por segundo en horas pico en los 3 datacenters que la alojan en todo el mundo (Tampa, Ámsterdam y Seúl), lo que se traduce en 3 Gigabits por segundo de ancho de banda de subida.
  • 350 servidores repartidos en estos tres datacenters, que van desde Pentium 4 mono núcleo a Dual Xeon Quad core (8 cores en total) y que en promedio disponen de entre 8 y 16Gb de RAM. Administrado todo esto por 6 personas únicamente.
  • Todo el conjunto de servidores trabaja en modo clúster siendo el de Tampa el primario y los otros dos solamente de caché. El sistema operativo instalado es siempre Linux, se balancea la carga de los clústeres en función de la geo-localización del cliente, es decir, dependiendo de la ubicación de la persona sentada del otro lado del monitor navegando Wikipedia.
  • El encargado de cachear Wikipedia es: Squid. En total hay 55 instancias de Squid repartidas en los servidores, que reciben cuando todo esta “tranquilito” un promedio de 1000 peticiones HTTP por segundo por servidor y 2500 en horas pico. Eso traducido en ancho de banda resulta ser entre 100 y 250 Megabits por segundo de subida por servidor y entre 14.000 y 32.000 conexiones TCP por segundo. ¡Una pavada!. Cada uno de los proxy servers tiene alrededor de 40Gb en su caché y 8Gb de RAM de los cuales 4Gb los usa exclusivamente Squid.
  • Toda la Wikipedia funciona gracias a software de código abierto, la plataforma que le da el nombre es MediaWiki, que está escrita en PHP y almacena información en bases de datos. En el caso de Wikipedia, toda la información se almacena en MySQL, en definitiva, la típica instalaciónLAMP pero con esteroides.
  • Wikipedia cuenta con alrededor de 125 servidores de aplicación y 15 servidores de bases de datos, todos dual-core y con entre 4 y 16Gb de RAM cada uno, está todo optimizado a mas no poder para consumir la menor cantidad posible de recursos separando las operaciones de lectura en ciertos servidores y las de escritura en otros, separando las operaciones que consumen CPU de las que no y las operaciones frecuentes de las que no, por servidor, además la cantidad de datos almacenados en cache varía en función de la hora del día y de la geolocalización del servidor.
  • Por otro lado, está el servidor de imágenes y contenido multimedia, que contiene 1.3 Terabytes de información en 4 millones de archivos almacenados, sirviendo 100 peticiones por segundo promedio. Hacer un backup de todo su contenido les toma aproximadamente dos semanas.

Visto en: alt-tab