ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Centros de datos de Google wiki: info, historia y vídeos

videos internet

salud  Centros de datos de Google 


Distribuir los servidores de forma deslocalizada en lugar de en una sola estructura tiene una serie de ventajas.


Rapidez de acceso, la distancia al punto de conexión con un servidor es uno de los factores que influyen en la velocidad con la que conseguiremos los datos, cuanto más cerca estemos del centro de datos pertinente, más veloz va a ser nuestra busca.


Fiabilidad del sistema, tener múltiples centros de datos en lugar de uno solo de un tamaño considerablemente mayor, resguarda al sistema en frente de caídas inopinadas, provocadas desde fallos en servidores, cortes de corriente, o bien aun catástrofes naturales.


Coste reducido, edificar un solo centro de datos centralizado y de un tamaño desmedido es considerablemente más costoso que edificar múltiples más pequeños.


Distribución en diferentes franjas climáticas, los centros de datos están distribuidos durante distintas franjas climáticas con diferente estacionalidad, esto deja compensar elevadas temperaturas en un área, desviando el trabajo a las zonas más frías en esa temporada, lo que repercute de manera directa en el gasto energético.


Distribución en diferentes franjas horarias, existe asimismo la posibilidad de mover carga cara los centros de datos que puedan aprovechar tarifas más bajas de electricidad, como por poner un ejemplo a lo largo de horas nocturnas de bajo consumo.


Google tiene fundamentalmente 2 grandes redes separadas, la primera conecta los usuarios a los servicios ofrecidos por Google (Busca, Gmail, YouTube, etcétera) la segunda conecta los centros de datos entre sí. El sentido de esta separación de redes en lugar de la integración de las dos en una red se debe a las distintas peculiaridades de demanda de tráfico que se aprecian entre lo que los usuarios precisan y las necesidades de Google.


La red de usuarios tiene un tráfico incesante si bien distinguido en 2 tramos, nocturno y diurno, el segundo con una mayor carga. Los niveles de demanda del mismo modo son altísimos, todos y cada uno de los bultos deben llegar íntegros y en el menor plazo posible. Pese a los tramos mentados, el tráfico en esta red es incesante, el volumen en uno de los tramos no cambia exageradamente de forma imprevisible puesto que depende del número de usuarios de la zona que es parcialmente incesante.


Sin embargo el tráfico interno es totalmente alterable en frente de la regularidad del externo. Google debe desplazar petabytes de datos (índices de la WWW, backups, o bien aun los datos derivados del lanzamiento de un nuevo producto) y precisa saber cuánto tiempo tardara el proceso y poder priorizar el tráfico más esencial, lo que es imposible con el sistema tradicional de transporte de datos.


Para ello Google emplea OpenFlow, un sistema Open Source desarrollado por científicos de las Universidades de Stanford y Berkley. OpenFlow se fundamenta en la llamada Red Definida por Software (SDN, Software Defined Networking) consistente en separar las funciones de direccionamiento de la red, aislándolas en servidores que conocen el estado completo de la red, en lugar de dejándolas a resolución de los enrutador como en el sistema tradicional.


Tomando como un ejemplo una compañía de taxis, el sistema tradicional seria en el que el taxista decide la senda, sin saber si la calle por la que decide ir va a estar cortada por obras o bien congestionada por el tráfico. En el sistema Open Flow, el taxista preguntara su senda a una central que conoce el estado preciso de tráfico en todas y cada una de las calles, pudiendo tomar la resolución perfecta. Esta central de tráfico podría aun ordenar a los taxis (datos con poca relevancia) continuar en el garaje mientras que pasan los camiones de bomberos (datos con mucha relevancia).


Google tiene una esencial infraestructura que no solo contiene el valor físico del hardware que la compone, sino más bien asimismo el valor de los datos que guarda. Ciertos de esos datos son propios de la compañía (estadísticas, índices, etcétera) al paso que otros son datos privados de los usuarios (correos de Gmail, vídeos de Youtube, etcétera).


El funcionamiento de todos y cada uno de los servicios depende de este hardware y los datos que guarda, por lo tanto la administración de la seguridad en estos centros de datos es una de las prioridades de la compañía.


Tal y como Google cuenta en uno de sus vídeos su política de seguridad se fundamenta en 3 áreas principales:


Dentro de un centro de datos hay miles y miles de máquinas que ejercitan de servidores para los servicios ofrecidos por Google, poseen los datos privados de millones de usuarios con un valor económico inestimable, que además de esto están protegidos bajo las leyes de protección de datos por ser material privado. El acceso está enormemente controlado, no se dejan turistas o bien visitas, el perímetro esta vallado y con fuerza observado, aun los trabajadores de Google deben ser de forma perfecta identificados en los puntos de acceso, en los que hay personal de seguridad veinticuatro horas al día que disponen de una red de vídeo cámaras que controlan el acceso de todos y cada uno de los automóviles.


Una vez en el circuito, al acceder al edificio el personal de seguridad debe contrastar nuevamente su identidad, no solo a través de las tarjetas electrónicas de identificación sino más bien a través de análisis biométricos como el análisis de retina. Ya en las oficinas, un último control se impone ya antes de pasar a las salas de servidores (donde se guardan los datos).


Además del personal en los puntos de acceso, una sala de seguridad se hace cargo de la revisión de las cámaras de la instalación, un equipo de seguridad está presente veinticuatro horas al día y actuaría en el caso de alguna anomalía.


Protección de datos


Google se toma de verdad la protección de los datos, que se guardan en múltiples localizaciones para asegurar su disponibilidad. Además de esto Google tiene en todos y cada uno de ellos de sus centros un equipo automático de vigilancia anti incendios, en el caso de advertirse alguna anomalía en ciertas secciones, de forma automática la actividad hace un puente a esa sección.Estos datos son críticos para el funcionamiento de la compañía, por ende se guardan no solo con las medidas de seguridad físicas, sino más bien además de esto a través de algoritmos de encriptación, los datos no están guardados en texto plano sino más bien cifrados


Los datos se guardan en discos duros que prosiguen un ciclo vital, se controla tanto su estado como su ubicación para eludir la pérdida o bien sustracción de alguno de ellos, cuando uno comienza a fallar, es reformateado y si supera una serie de pruebas, puesto nuevamente a marchar.


En caso de no superar la prueba dada la cantidad de datos que contiene y la posible relevancia de ellos pasa a un proceso para quitar absolutamente la información que pudiese contener. Primero los datos van a ser sobrescritos y seguidamente los discos van a ser destruidos físicamente, una máquina aplastará y desfigurará el disco a fin de que su contenido no pueda ser leído y seguidamente el equipo triturador que transformará el disco duro en "viruta" metálica, imposible de recobrar.


Fiabilidad en las operaciones


Google sostiene una serie de generadores de urgencia, como duplicidad en las conexiones tanto a la red eléctrica como a la red de datos, para eludir fallos debidos a fallo en una conexión, todo ello destinado que sus servicios estén libres veinticuatro horas al día, trescientos sesenta y cinco días por año.


La mayoría de los centros de datos emplea exactamente la misma cantidad de energía general o bien de no computación (conversión de energía, refrigeración, etc) que la usada para proveer energía a sus servidores.


En Google se ha reducido esta energía general a un doce por ciento . Así, el ochenta y ocho por ciento de la energía que emplea se dirige a los equipos que proveen los productos y las buscas de Google.


El promedio ponderado de energía del PUE (iniciales en inglés de Power Usage Effectiveness, Eficacia en el Empleo de Energía) de los últimos 12 meses para todos y cada uno de los centros de datos de Google es de solo uno con doce, lo que hace de estos centros de datos los más eficaces del planeta puesto que conforme la encuesta sobre centros de datos de dos mil doce del Uptime Institute, el promedio global de los mayores centros de datos encuestados se halla entre el uno con ocho y el uno con ochenta y nueve.


Generalmente, todos y cada uno de los grandes servidores de otras empresas se acostumbran a concentrar en una sala llamada sala fría, con una temperatura de unos veintidos o bien veintitres grados, una forma de progresar la eficacia energética de los servidores es tan simple como elevar la temperatura, por norma general las zonas de servidores de Google marchan con una temperatura de veintisiete grados.


Sin embargo elevar la temperatura solamente no es suficiente, la forma empleada por Google para lograr este desempeño energético es el empleo del ambiente en el que emplazan sus centros de datos. En el tercer mes del año de dos mil nueve, empezaron la transformación de la factoría de papel Summa Mill, de sesenta años de antigüedad, para transformarla en un centro de datos. la actualidad, el centro de datos presta sus servicios a usuarios de Google de toda Europa y del resto del planeta.


La peculiaridad de esta planta es que emplea el agua marina proveniente de la bahía de Finlandia, aprovechando de forma directa la baja temperatura en la que se halla para enfriar sus equipos, una vez empleada se mezcla con agua cogida de nuevo de la bahía para suavizar su temperatura y de esta manera devolverla con una temperatura similar, minimizando el impacto ecológico.


Otro ejemplo de de qué manera Google utiliza nuevas formas para refrigerar sus instalaciones, es la ventilación por evaporación. Frente al empleo de aire acondicionado, que puede acrecentar entre un treinta por ciento y un setenta por ciento el consumo de energía, Google emplea un sistema similar al que emplea nuestro organismo para refrigerarse.


Unos sistemas de refrigeración adaptados guardan provisionalmente el aire caliente que sale de los servidores y lo aíslan del resto del espacio del centro de datos. Los ventiladores ubicados sobre cada una de estas unidades extraen el aire caliente de la parte posterior de los servidores mediante conductos refrigerados con agua, que absorbe el calor del aire.


Esta agua caliente procedente del centro de datos baja mediante un material que acelera la evaporación y se transforma en parte en vapor, que es sacado al exterior a través de ventiladores. Por último se manda el agua refrigerada de vuelta al centro de datos para regresar a comenzar el ciclo.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Centros de datos de Google wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas