Twitter construirá y se mudará a su propio datacenter
Este artículo está probablemente obsoleto
Este artículo fue publicado hace más de 10 años (el 23 de julio del 2010, para ser exactos). La información contenida puede estar muy desactualizada o ya no ser relevante.
El artículo existe como archivo de este sitio y de la antigüedad del mismo. Este blog existe en el Internet desde el 2007!
Algunos o todos los enlaces de este artículo pueden haber sido removidos o estar rotos debido a la antigüedad del mismo. Te pedimos las disculpas por cualquier inconveniente que esto pueda causar.
Twitter es una comunidad que crece a pasos agigantados. De hecho, más de 300.000 nuevos usuarios se registran día a día para responder a una simple pregunta “What’s Happening?”. Eso ha llevado a tomar medidas drásticas debido a que la contratación de servidores en empresas de terceros ha hecho que el proyecto no se pueda escalar y, por lo mismo, han decidido abrir su propio centro de datos con servidores a la medida.

Con ello, se espera que se reduzca en cierta medida la imagen de la “Fail Whale” cuando intentamos actualizar un perfil o cuando accedemos a los perfiles de los amigos. Adicionalmente, el mayor hecho que llevó a decidir el desarrollo de un datacenter propio es que muchas veces las tablas que almacenaban la información de Twitter resultaban bloqueadas debido a que colapsaban intentando actualizar rápidamente los tweets con información que los millones de usuarios publican día a día.
Todo este problema comenzó a originarse para el Mundial Sudáfrica 2010 en el que se llegó a un peak de actualizaciones por parte de los usuarios y que llevó al equipo de ingenieros de Twitter tener que hacer más de 50 optimizaciones a los servidores que manejan Twitter para soportar tal cantidad de datos moviéndose a lado y lado. En el blog oficial explicaron algunos detalles de dichas actualizaciones, que no fueron menores y que permitieron a los millones de interesados en el fútbol poder alentar a sus propios equipos.
El nuevo datacenter será ubicado en el corazón de Salt Lake City, permitirá el poder manejar directamente las opciones del sitio web así como permitir rápidos crecimientos y obtener un funcionamiento casi perfecto cuando susciten estos picos de visitas y actualizaciones en los momentos que se espera que el tráfico sea mayor, como en la Copa del Mundo.
Su lanzamiento está previsto en unos 24 meses más y, durante ese tiempo, seguirán manejando los datos de los usuarios en NTT América, quien provee hasta la fecha el servicio de housing de una de las redes sociales más grandes del mundo.
Vía | Twitter Blog
Continúa Leyendo
OpenAI lanza ChatGPT Atlas, el navegador web impulsado por IA
OpenAI, la empresa detrás del popular ChatGPT, acaba de dar un paso audaz al lanzar su primer navegador web impulsado por inteligencia artificial, …
¿IA culpable del colapso de AWS? La conexión entre despidos y la caída masiva
Hace unos días, el servicio de Amazon Web Services (AWS), que es como el motor en la nube que impulsa muchas plataformas digitales en Estados Unidos y …

