jueves, 30 de noviembre de 2017

Todos los videos de Google Next,17 Madrid en una sola Página



Tanto si pasaste por este evento o no, te recordamos que tienes todos los videos del evetno que se celebro en Madrid, el google Cloud Next 17.

Desde el perfil de Google Cloud tienes una play list con todos los videos de la jornada del 8 de Junio del 2017.

https://www.youtube.com/playlist?list=PLIivdWyY5sqIFqkz8xbAD22UCvXi8zmGm


Enjoy.

lunes, 27 de noviembre de 2017

Hispano Google cloud study jams


Empieza ya a planificar tu comienzo de año en el 1018 dentro de la Q1, google pone en marcha los cloud study jam, para aprender de cloud con sus herramientas en la web qwiklabs.com

Así que este año en vez en tu año nuevo añade un curso certificado de google cloud con créditos patrocinado por google .

Para el registro usamos meetup:

https://www.meetup.com/es-ES/GDG-La-Rioja/events/245442306/

jueves, 23 de noviembre de 2017

Istio gestionando la red con microservicios



Istio: un enfoque moderno para desarrollar y gestionar microservicios


Google, IBM y Lyft anunciaron el lanzamiento alfa de Istio: un nuevo proyecto de open-source que proporciona una manera uniforme de ayudar a conectar, proteger, administrar y monitorear microservicios.

Istio encapsula muchas de las mejores prácticas que Google ha estado utilizando para ejecutar servicios de producción a gran escala durante años. Google se ha unido  a la comunidad como una solución abierta que funciona con Kubernetes; en las instalaciones o en cualquier nube, para ayudar a resolver los desafíos en el desarrollo de aplicaciones modernas.
Istio ofrece a los desarrolladores y devops una visibilidad detallada y control sobre el tráfico sin requerir ningún cambio en el código de la aplicación y proporciona a los CIO y las OSC las herramientas necesarias para ayudar a aplicar los requisitos de seguridad y cumplimiento en toda la empresa.


Pasar de aplicaciones monolíticas a microservicios

A medida que las aplicaciones monolíticas se descomponen en microservicios, los equipos deben preocuparse por los desafíos inherentes a la integración de servicios en sistemas distribuidos: deben tener en cuenta la detección de servicios, el equilibrio de carga, la tolerancia a fallos, la supervisión integral, el enrutamiento dinámico para la experimentación de características y quizás lo más importante de todo, cumplimiento y seguridad, lo que se denomina el traficoa Ingress.


Cómo ayuda Istio

Istio es una capa de infraestructura entre un servicio y la red que brinda a los operadores los controles que necesitan y libera a los desarrolladores de tener que resolver problemas del sistema distribuido en su código. Esta capa uniforme de infraestructura combinada con implementaciones de servicio se conoce comúnmente como malla de servicio. Istio está diseñado para ejecutarse en cualquier entorno en cualquier nube, pero en Google se implienta como opensource en Kubernetes. Solo se necesita un solo comando para instalar Istio en cualquier clúster de Kubernetes, lo que crea una malla de servicio que permite:

  • Equilibrio de carga automático para tráfico HTTP, gRPC y TCP
  • Control detallado del comportamiento del tráfico con reglas de enrutamiento enriquecidas
  • Cifrado de tráfico, autenticación de servicio a servicio y fuertes afirmaciones de identidad
  • Aplicación de políticas en toda la flota
  • Intensidad de telemetría e informes


La malla de servicio faculta a los operadores con el control de políticas y los desacopla del proceso de desarrollo y lanzamiento de características, proporcionando una gestión centralizada independientemente de la escala y la velocidad de las aplicaciones. Google se ha dado cuenta de los beneficios de una malla de servicios durante más de una década, para ofrecer servicios confiables a escala mundial como los que usa en sus serivicios YouTube y Gmail, Cloud PubSub y Cloud BigTable.


Open community

Para obtener más información sobre Istio y los problemas que aborda, visite la publicación de blog de lanzamiento de Istio. Istio se está desarrollando abiertamente en GitHub, e invitamos a la comunidad a unirse a nosotros en la configuración del proyecto mientras trabajamos para lograr un lanzamiento de 1.0 a finales de este año. Esperamos trabajar con la comunidad para preparar la producción de Istio y trabajar en todas partes.

Google Cloud está comprometido con el código abierto, ya sea que traiga nuevas tecnologías al aire libre como Kubernetes o gRPC; contribuyendo a proyectos como Envoy; o admitir herramientas de código abierto en Google Cloud Platform. Istio es la última instancia de la contribución continua de Google al código abierto como parte de un esfuerzo de colaboración de la comunidad.


Más allá de Istio

Istio es solo una solución para ayudar a que los microservicios sean más fáciles de construir, implementar, consumir y administrar. En grandes empresas con entornos diversos y uso generalizado de software de terceros, los desarrolladores también desean descubrir, crear instancias y consumir servicios de una manera independiente de la plataforma. Los desarrolladores que prestan servicios necesitan un tiempo de comercialización más rápido, un mayor alcance y una forma simple de rastrear el uso y los costos. Con este fin, se ha  estado trabajando con la comunidad de open source para contribuir con Open Service Broker, una API unificada que simplifica la entrega y el consumo de servicios. A través del modelo de Open Service Broker, los CIO pueden definir un catálogo de servicios que se pueden usar dentro de sus empresas y herramientas de auditoría para aplicar el cumplimiento. Todos los servicios impulsados ​​por Istio podrán participar sin problemas en el ecosistema de Service Broker.


Mirando hacia el futuro

Hoy, puede instalar y usar Istio manualmente en Google Container Engine; en el futuro, en Google indica que tienen la intención de proporcionar una experiencia más automatizada e integrada.

También tienen la intención de brindar capacidades de Istio a Cloud Endpoints y a la gama de productos Apigee. Esto proporcionará visibilidad y administración comunes tanto para API como para microservicios para organizaciones de cualquier tamaño. A medida que se trabaja con la comunidad para endurecer Istio para la preparación de la producción, planeamos proporcionar una integración más profunda con el resto de Google Cloud.


Empiece hoy

Puede comenzar con Istio . En caso de problemas, puede comunicarse a través de la lista de correo istio-users@googlegroups.com o presentar un problema en GitHub.

miércoles, 22 de noviembre de 2017

Cisco y Google se asocian.


Google ha anunciado una nueva asociación con Cisco para ayudar a sus clientes a mejorar la agilidad y la seguridad en un mundo híbrido con una solución totalmente compatible y abierta para desarrollar y gestionar aplicaciones en las instalaciones y en Google Cloud.

Han anunciado que  estamos trabajando en una solución completa para desarrollar, ejecutar, asegurar y monitorear las cargas de trabajo, permitiendo a los clientes optimizar sus inversiones existentes, planificar su migración a la nube a su propio ritmo y evitar el lock-in.

Los desarrolladores podrán crear nuevas aplicaciones en la nube o en las instalaciones de manera consistente utilizando las mismas herramientas, el tiempo de ejecución y el entorno de producción.
En el corazón de esta arquitectura se encuentran las plataformas de código abierto, Kubernetes e Istio. Los clientes podrán acelerar la modernización de aplicaciones en las instalaciones utilizando una estrategia de contenedores basada en Kubernetes que sea consistente con la tecnología nativa de la nube. En las instalaciones, la plataforma  Cisco HyperFlex, proporcionará una solución lista para la nube para Kubernetes y contenedores, y herramientas de administración para aplicar políticas de seguridad y consumo.

Estan trabajando juntos para ofrecer un entorno de Kubernetes uniforme tanto para la Infraestructura de nube privada de Cisco en las instalaciones como para el servicio gestionado de Kubernetes de Google, Google Container Engine. De esta forma, puede escribir una vez, implementar en cualquier lugar y evitar el bloqueo en la nube, con su elección de gestión, software, hipervisor y sistema operativo. También proporcionaremos un intermediario de servicios en la nube para conectar las cargas de trabajo locales a los servicios de Google Cloud Platform (GCP) para aprendizaje automático, bases de datos escalables y almacenamiento de datos.




Con Istio, una tecnología de código abierto, contenedor y microservicio optimizada que lanzamos con socios a principios de este año, los desarrolladores pueden usar controles impulsados ​​por políticas para conectarse, ayudar a proteger, descubrir y gestionar servicios de forma estable. Istio es una forma sencilla de crear una malla de red de servicios implementados con equilibrio de carga, autenticación y monitoreo de servicio a servicio integrados, sin requerir ningún cambio en el código real que ejecuta los servicios.

Por lo tanto, Istio facilita a los desarrolladores la implementación de servicios nuevos y más portátiles, y crea una plataforma independiente basada en políticas para configurar y administrar esos servicios de forma centralizada.

Esta asociación para mejorar la infraestructura local existente y extenderla a la nube resuelve problemas operativos difíciles que las empresas tradicionalmente han tenido problemas para resolver. También aprovecha las mejores capacidades de Cisco, incluida la capacidad de extender las políticas y configuraciones de red y seguridad de Cisco y monitorear el comportamiento de las aplicaciones en entornos de nube híbrida. Echemos un vistazo a algunos de los patrones iniciales que prevemos que abordará esta solución: servicios existentes en las instalaciones, servicios híbridos y ejecución local.

jueves, 16 de noviembre de 2017

Introducing Certified Kubernetes (and Google Kubernetes Engine!)

Cuando Google lanzó Kubernetes hace tres años, en google sabían que en base a los 10 años de experiencia con Borg lo útil que sería para los desarrolladores. Pero incluso no hubiéramos podido predecir su actual éxito. Kubernetes es uno de los proyectos de código abierto de mayor velocidad en crecimiento del mundo, respaldado por una comunidad diversa de contribuyentes. Fue diseñado en su corazón para funcionar en cualquier lugar, y docenas de proveedores han creado sus propias ofertas de Kubernetes.

Para los usuarios de Kubernetes, es fundamental que sus aplicaciones se ejecuten de manera confiable en diferentes entornos de Kubernetes, y que puedan acceder a las nuevas funciones de manera oportuna. Para garantizar una experiencia de desarrollador consistente en diferentes ofertas de Kubernetes, en google se ha  estado trabajando con el Cloud Native Computing Foundation (CNCF) y la comunidad de Kubernetes para crear el Programa de conformidad certificado de Kubernetes. El programa Certified Kubernetes se lanzó oficialmente hoy, y el  servicio Kubernetes de Gppgle está entre los primeros en obtener la certificación.



Elegir una plataforma certificada de Kubernetes como la de google  y la de nuestros socios brinda beneficios y tranquilidad, especialmente para organizaciones con implementaciones híbridas. Con la mayor compatibilidad de Kubernetes certificados, se obtiene:
  • Migraciones fluidas entre entornos locales y en la nube, y una mayor capacidad para dividir una sola carga de trabajo en múltiples entornos
  • Actualizaciones constantes
  • Acceso a software de la comunidad y recursos de soporte

La CNCF alberga una lista completa de plataformas y distribuciones certificadas de Kubernetes. Si usa una oferta de Kubernetes que no está en la lista, anímeles a obtener la certificación lo antes posible.

Poniendo la K en GKE

Uno de los beneficios de participar en el Programa de conformidad certificado de Kubernetes es poder utilizar el nombre "Kubernetes" en su producto. Con eso, aprovechamos la oportunidad para cambiar el nombre de Container Engine a Kubernetes Engine. Desde el principio, el acrónimo de Container Engine ha sido GKE en un guiño a Kubernetes. Ahora, como una oferta certificada de Kubernetes, podemos poner oficialmente la K en GKE.


Si bien el nombre Kubernetes Engine es nuevo, todo lo demás sobre el servicio no ha cambiado: sigue siendo el mismo gran entorno administrado para implementar aplicaciones en contenedores en las que confías para ejecutar tus entornos de producción. Para obtener más información acerca de Kubernetes Engine, visite la página del producto o la documentación de una gran cantidad de inicios rápidos, tutoriales y tutoriales. Y como siempre, si recién está comenzando con los contenedores y Google Cloud Platform, asegúrese de registrarse para una prueba gratuita.


martes, 14 de noviembre de 2017

Formación sobre Firebase una App completa.



Me adelanto a la Navidad para animaros a que apuntéis en vuestros calendarios para  auto formaros en Firebase, una de las grandes tecnologías cloud de Google.


De la mano de Carlos Azaustre y Paola Garcia Jeff Arese Kike Garciía y Gloria Bueno para que os acerquen esta formación sobre las tecnologías cloud de Firebase, publicaron esta joya que hoy por hoy esta 100% valida.

De entre todo el buen material que tienen publicado hoy voy a destacar este manual que montaron hace un año sobre como desplegar todo un proyecto usando Firebase de Google.

Es una joya no os lo perdais.


En el blog nos hablan de como te enseñan a desarrollar una aplicación de chat utilizando los servicios que nos provee Firebase. Como la autenticación, la base de datos realtime y el hosting.

Disfrutarlo.

jueves, 9 de noviembre de 2017

Continuous Delivery con Travis CI, Github, App Engine



Las pruebas son un aspecto importante de la creación de software de alta calidad. Para garantizar que ejecuten pruebas unitarias contra cada compilación de un proyecto, muchas organizaciones de ingeniería han adoptado la práctica de integración continua (IC), que implica el uso de herramientas como Jenkins o Travis CI.

La entrega continua (CD) va un paso más allá al garantizar que cada compilación también se pueda implementar en un entorno similar a la producción y luego pasar las pruebas de integración en ese entorno. Es fácil ejecutar pruebas de integración mediante el uso de un servicio de CI en Google Cloud Platform para implementar su aplicación como parte del proceso de compilación.

Aunque  Travis CI, la mayoría de las ideas se aplican a otras herramientas de CI, como Jenkins. Si bien a Travis le falta algo de la flexibilidad y la capacidad de configuración de Jenkins, es fácil comenzar, se integra muy bien con Github, ejecuta las pruebas de forma aislada y, lo mejor de todo, no necesita administrar su propia infraestructura.

Una aplicación de Python que se ejecuta en Google App Engine con Python Flask e interactúa con la API de Google Books. La aplicación muestra cómo Travis puede implementar y ejecutar pruebas de extremo a extremo en un entorno intermedio, como parte del proceso de prueba, desencadenado por un comando git push. El siguiente diagrama muestra el proceso a groso modo:



Travis CI ejecuta pruebas locales entre GitHub y la implementación de Cloud Platform

Después de recorrer el ejemplo de App Engine. El repositorio de GitHub que contiene la muestra también tiene una rama de máquinas virtuales administradas que demuestra la implementación de la misma aplicación mediante el uso de un entorno flexible.

Travis CI tiene soporte integrado para implementar entornos estándar o flexibles de App Engine mediante el uso de proveedores de implementación. Cuando utiliza estos proveedores, algunos de los pasos básicos de configuración siguen siendo los mismos, pero el archivo de configuración es más simple. Descarga el Google Cloud SDK, que también se puede usar para fines distintos de la implementación, como ejecutar emuladores locales para las pruebas de su unidad. Para obtener más información, vea Usar proveedores de implementación de Travis CI, más adelante en este artículo.

lunes, 6 de noviembre de 2017

Google cloud llega a la india en la región de Munbai.


La primera región de Google Cloud Platform en la India ahora está abierta para que pueda crear aplicaciones y almacenar sus datos, y promete mejorar significativamente la latencia para los clientes de google cloud  y los usuarios finales en el área de la indida.

La nueva región de Mumbai, asia-south1, se une a Singapur, Taiwán, Sydney y Tokio en Asia-Pacífico y facilita la creación de aplicaciones de alto rendimiento y disponibilidad utilizando recursos en esas geografías.

Las aplicaciones de alojamiento en la nueva región pueden mejorar la latencia del 20-90% para los usuarios finales en Chennai, Hyderabad, Bangalore y, por supuesto, Mumbai, en comparación con su alojamiento en la región más cercana, Singapur.




En laa región de Mumbai tiene todo lo que necesita para construir la próxima gran aplicación, y tres zonas para hacer que resista lo que la Madre Naturaleza tiene para ofrecer:

Si desea conectarse de forma privada a la región de Mumbai, google ofrece Interconexión dedicada en dos ubicaciones, estas ubicaciones son GPX Mumbai y Tata Mumbai IDC.





Empezando....

Para obtener más detalles sobre la región de Mumbai, visite la página de la región de Mumbai donde obtendrá acceso a recursos gratuitos, libros blancos, la serie de videos a pedido "Cloud On-Air" y más. La página de ubicaciones proporciona actualizaciones sobre la disponibilidad de servicios y regiones adicionales.

miércoles, 1 de noviembre de 2017

Ingress en Google Container Engine [2]


Viene de Medium power by Christopher Grant


Parte 1: Discusión en la que se explica cómo usaría un Global clúster con Google LoadBalancer for Ingress.

Código fuente


El código fuente para este tutorial se puede encontrar en GitHub aquí

Allí encontrarás:
- / app - el código de las aplicaciones utilizadas en la demostración
- / cluster - una única secuencia de comandos para aprovisionar un clúster federado
- / deploy - los archivos yaml k8s que usaremos en la demo

Configurar el clúster

He cubierto esto en detalle en Global Kubernetes en 3 pasos y lo he vuelto a proporcionar en el archivo README. Este artículo es más sobre cómo usarlo, así que no entraré en el proceso de configuración aquí.

Implementar las aplicaciones y el Ingress


Primero, toma el repositorio y clónalo localmente
git clone https://github.com/cgrant/global-k8s-ingress-with-gce-controller
cd global-k8s-ingress-with-gce-controller

Para este ejemplo, he proporcionado ejemplos de aplicaciones de Python en el directorio  /apps. Los container esta construidos prebuilt y también los publiqué en el Docker Hub. Debería poder personalizar el código o cambiar sus propias imágenes.

Implementa las aplicaciones

kubectl apply -f deploy/app-with-context.yaml
kubectl apply -f deploy/simple-echo.yaml

Como se menciona en la Parte 1, deberá establecer explícitamente los valores de NodePort en la Implementación. Ya los he configurado para `30048` y` 30050`

Revise la página de cargas de trabajo en Google Cloud Console


Crea una IP global

Una vez que se despliegan los módulos de aplicaciones, podemos ver cómo los une con un Ingress.

Lo primero que debemos hacer es crear una IP global para Global LoadBalancer.

Esto es crítico para que el Ingrss funcione en múltiples clusters. las IP efímeras predeterminadas son solo regionales y no permitirán una federación adecuada

Crea una IP global llamada ingress-ip

gcloud compute addresses create ingress-ip — global

Implementar el Ingress

Ahora despliega el Ingress mismo

kubectl apply -f deploy/ingress.yaml

Esto llevará un tiempo, aproximadamente 5 minutos, para que se creen los cargadores balanceados en todo el mundo y para que pasen todas las comprobaciones de estado.

Puede revisar el progreso en la página Descubrimiento y equilibrio de carga en la consola de la nube


Una vez que el equilibrador de carga está activo, puede acceder a las siguientes URL:

/
/foo
/foo/bar
/eco
/echo/anyString

Desde la página Descubrimiento y equilibrio de carga en la consola de la nube, haga clic en el nombre de Load Balancer para más detalles. Luego desplácese hacia abajo a los backends.




Habrá un backend para cada servicio en su ingreso yaml. Continúa y haz clic en uno de los back-ends

A medida que el tráfico fluya a su nuevo servicio, puede ver el desglose de la ubicación y otras métricas en esta página.


Eso es todo, ¡estás listo!

Por su cuenta

Eso es lo corto y facil de la demo. Asegúrese de explorar el código para comprender la mecánica. Pruebe también actualizaciones por su cuenta

Continúa y despliega tu propio servicio, modifica el ingreso.yaml y ejecuta

kubectl apply -f deploy/ingress.yaml

Los nuevos servicios en el equilibrador de carga tardan unos minutos en aparecer, pero los cambios en los servicios existentes son bastante rápidos

Pruébalo actualizando la imagen en la aplicación Despliegue a algo nuevo, por ejemplo, tal vez actualice `simple-echo.yaml`
spec:
 containers:
 — name: simple-echo
 image: cgrant/simple-echo-server
```
to
spec:
 containers:
 — name: simple-echo
 image: cgrant/simple-echo-server:version1

Luego aplicar

kubectl apply -f deploy/simple-echo.yaml

¡Los contenedores se actualizarán rápidamente y ya está listo!
Me gusta mucho la posibilidad de usar productos nativos de Google Cloud con Kubernetes. Quita gran parte de la incomodidad de la infraestructura a la vez que me proporciona herramientas sólidas administradas para mis aplicaciones.

Espero que hayas disfrutado.