Controladores de Amazon Web Services desde el contenedor de Kubernetes (ACK)

Los controladores de AWS para Kubernetes (ACK) son una nueva herramienta que permite administrar directamente los servicios de AWS desde Kubernetes. ACK simplifica la creación de aplicaciones de Kubernetes escalables y de alta disponibilidad que utilizan los servicios de Amazon Web Services.

Hoy, ACK está disponible como una vista previa para los desarrolladores en GitHub.

En esta publicación, vamos a dar una breve introducción a la historia del proyecto Aws Controllers for Kubernetes, le mostraremos cómo funciona ACK y cómo puede comenzar a usar ACK.

¿Cómo empezó el proyecto de ACK?

A finales de 2018, Chris Hein presentó AWS Service Operator como un proyecto personal experimental. Revisamos los comentarios de la comunidad y las partes interesadas internas y decidimos relanzarlo como un proyecto de código abierto de primer nivel.

En este proceso, cambiamos el nombre del proyecto a AWS Controllers for Kubernetes (ACK). Los principios cambios que se presentaron fueron:

  • ACK es un proyecto impulsado por la comunidad, basado en un modelo de gobernanza que define roles y responsabilidades.
  • ACK está optimizado para uso en producción con una cobertura de prueba completa que incluye conjuntos de pruebas de rendimiento y escalabilidad.
  • ACK se esfuerza por ser la única base de código que expone los servicios de AWS a través de un operador de Kubernetes.

Durante el año pasado, el proyecto ha evolucionado significativamente el diseño del proyecto inicial, continuando con la discusión entre las partes interesadas internas y se revisaron los proyectos relacionados. Con un reconocimiento especial en este contexto al proyecto Crossplane, que hace un trabajo increíble para los casos de uso en la nube y se convirtió merecidamente en un proyecto de CNCF mientras tanto.

El nuevo proyecto ACK continúa el espíritu del AWS Service Operator original, pero con algunas actualizaciones:

  • Los recursos de la nube de AWS se administran directamente a través de las API de AWS en lugar de CloudFormation. Esto permite que Kubernetes sea la única “fuente de la verdad” para un estado deseado de recursos.
  • El código para los controladores y las definiciones de recursos personalizados se genera automáticamente desde el AWS Go SDK, con la edición y aprobación humana. Esto nos permite respaldar más servicios con menos trabajo manual y mantener el proyecto actualizado con las últimas innovaciones.
  • Este es un proyecto oficial creado y mantenido por el equipo de AWS Kubernetes. Planeamos seguir invirtiendo en este proyecto junto con nuestros colegas de AWS.

¿Cómo funciona ACK?

El objetivo de ACK es proporcionar una interfaz de Kubernetes coherente para AWS, independientemente de la API de servicio de AWS. Un ejemplo de esto es garantizar que los nombres de campo y los identificadores estén normalizados y que las etiquetas se manejen de la misma manera en todos los recursos de AWS.

Como se muestra arriba, desde un nivel alto, el flujo de trabajo ACK es el siguiente:

  1. El equipo del proyecto, genera y mantiene una colección de artefactos (binarios, imágenes de contenedores, gráficos de Helm, etc.). Estos artefactos se derivan automáticamente de las API de servicios de AWS y representan la lógica empresarial de cómo administrar los recursos de AWS desde Kubernetes.
  2. Como administrador de un clúster, selecciona uno o más controladores ACK que desea instalar y configurar para un clúster del que es responsable.
  3. Como desarrollador de aplicaciones, crea recursos personalizados (Kubernetes) que representan los recursos de AWS.
  4. El controlador ACK respectivo (instalado en el paso 2) administra dichos recursos personalizados y con él los recursos AWS subyacentes. Según el recurso personalizado definido en el paso 3., el controlador crea, actualiza o elimina los recursos de AWS subyacentes mediante las API de AWS.

Echemos ahora un vistazo más de cerca al flujo de trabajo, usando un ejemplo concreto.

1. Generación de artefactos

La generación de artefactos crea los componentes de código necesarios que le permiten administrar los servicios de AWS mediante Kubernetes. Adoptamos un enfoque de varias fases, lo que produjo tiempos de ejecución híbridos personalizados + controlador:

  • Primero, consumimos información del modelo de una fuente canónica de la verdad sobre los servicios de AWS. Nos decidimos por la fuente de la verdad como los archivos modelo del aws/aws-sdk-gorepositorio. Los SDK de AWS se actualizan periódicamente con todos los cambios de API, por lo que esta es una fuente de información precisa y sigue de cerca la disponibilidad de la API del servicio. En esta fase, generamos archivos que contienen código que expone los tipos Go para objetos e interfaces que se encuentran allí.
  • Después de generar las definiciones de tipo de API de Kubernetes para los recursos de nivel superior expuestos por la API de AWS, necesitamos generar las implementaciones de interfaz que permitan que esos recursos de nivel superior y las definiciones de tipo sean utilizados por el paquete de tiempo de ejecución de Kubernetes.
  • A continuación, generamos los archivos de configuración de definición de recursos personalizados (CRD), uno para cada recurso de nivel superior identificado en los pasos anteriores. Luego, generamos la implementación del controlador ACK para el servicio de destino. Junto con estas implementaciones del controlador en Go, esta pasos también da salida a un conjunto de manifiestos Kubernetes para el Deployment y la ClusterRoleBinding de la Role para el siguiente paso.
  • Finalmente, generamos los manifiestos de Kubernetes para un Kubernetes Rolepara los Kubernetes que Deploymentejecutan los respectivos controladores de servicio ACK. Siguiendo el principio de privilegios mínimos, este Roledebe estar equipado con los permisos exactos para leer y escribir recursos personalizados del Kindque administra dicho controlador de servicio.

Los artefactos anteriores (código Go, imágenes de contenedor, manifiestos de Kubernetes para CRD, roles, implementaciones, etc.) representan la lógica empresarial de cómo administrar los recursos de AWS desde Kubernetes y son responsabilidad de los equipos de servicio de AWS crear y mantener junto con la entrada. de la comunidad.

2. Instalación de controladores y recursos personalizados

Para utilizar ACK en un clúster, instale los controladores de servicio de AWS deseados, teniendo en cuenta que:

  • Usted establece los permisos respectivos de Control de acceso basado en roles ( RBAC ) de Kubernetes para los recursos personalizados de ACK. Tenga en cuenta que cada controlador de servicio ACK se ejecuta en su propio pod y puede y debe hacer cumplir los controles de IAM existentes, incluidos los límites de permisos o las políticas de control de servicio para definir quién tiene acceso a qué recursos, definiéndolos de manera transitiva a través de RBAC.
  • Asocia un ID de cuenta de AWS a un espacio de nombres de Kubernetes. En consecuencia, eso significa que cada recurso personalizado de ACK debe tener un espacio de nombres (no recursos personalizados de todo el clúster).

Según el modelo de responsabilidad compartida de AWS , en el contexto de la administración del clúster, usted es responsable de actualizar periódicamente los controladores de servicio ACK y de aplicar los parches de seguridad a medida que estén disponibles.

3. Inicio de recursos de AWS desde Kubernetes

Como desarrollador de aplicaciones, crea un recurso personalizado con espacio de nombres en uno de sus clústeres habilitados para ACK. Por ejemplo, digamos que desea que ACK cree un repositorio de Amazon Elastic Container Registry (ECR), definiría y luego aplicaría algo como:

““
apiVersion: “ecr.services.k8s.aws/v1alpha1”
kind: Repository
metadata:
name: “my-ecr-repo”
spec:
repositoryName: “encrypted-repo-managed-by-ack”
encryptionConfiguration:
encryptionType: AES256
tags:
– key: “is-encrypted”
value: “true”
““`

4. Gestión de recursos de AWS desde Kubernetes

Los controladores de servicio ACK instalados por los administradores del clúster pueden crear, actualizar o eliminar recursos de AWS, según la intención encontrada en el recurso personalizado definido en el paso anterior, por los desarrolladores.

Esto significa que en un clúster de destino habilitado para ACK, se creará el recurso de AWS respectivo (en nuestro caso de ejemplo, el repositorio de ECR), y usted tendrá acceso a él, una vez que aplique el recurso personalizado.

Centrémonos un poco más en la creación y administración de recursos de AWS desde Kubernetes, ya que así es como la mayoría de los usuarios interactuarán con ACK. En nuestro ejemplo, crearemos un bucket de S3 a partir de nuestro clúster.

¿Cómo implementar todo esto?

Si deseas un tutorial más concreto del paso a paso y funcionamiento de ACK, puedes visital el blog de Amazon.

Fuente: Blog Oficial de Amazon.

Relacionado

Reinvención de la virtualización con AWS Nitro System

El siguiente artículo, es una traducción rápida de la reciente publicación del director tecnológico de Amazon: Wergner Vogels. En el que se trata sobre el futuro de la virtualización, los hipervisores, el progreso y el rendimiento de la virtualización en la nube. Si deseas leer el contenido original junto a las gráficas existentes en el mismo. ? Los Mejores Chollos de Amazon, ¡Agrégalos a tu Lista ¡SEGUIR LEYENDO!

Neon: Alternativa de código abierto a AWS Aurora Postgres sin servidor

El Postgres multinube totalmente administrado con una generosa capa gratuita. Separamos el almacenamiento y la computación para ofrecer escalado automático, bifurcación y almacenamiento ilimitado. Inicia Serverless Postgres con un solo comando: $ psql -h pg.neon.tech Contenidos Escalabilidad bajo demandaAlmacenamiento sin fondoRamificación de datosCódigo abierto Escalabilidad bajo demanda Separa el almacenamiento y la computación para hacer posible la escalabilidad bajo demanda. Compute se activa en una conexión ¡SEGUIR LEYENDO!

Microsoft Azure Container Apps: Un nuevo servicio de contenedores sin servidor

Microsoft crea Azure Container Apps, un nuevo servicio de contenedores sin servidor totalmente administrado que complementa los servicios de infraestructura de contenedores existentes de la compañía, como Azure Kubernetes Service (AKS). Microsoft señala que Azure Container Apps se creó específicamente para especificamente los microservicios, con la capacidad de escalar rápidamente en función del tráfico HTTP, eventos o trabajos en segundo plano de larga ejecución. En muchos ¡SEGUIR LEYENDO!

Mejores herramientas y soluciones de DevOps

Ejecutar una operación DevOps exitosa requiere un conjunto de herramientas completo para respaldar cada fase del ciclo de desarrollo de software. ¿Qué es DevOps? Este enfoque para crear software es la norma ahora, ya que la mayoría de las empresas reconocen la necesidad de iterar rápidamente y lanzar código nuevo con frecuencia. DevOps es una combinación de filosofías, prácticas y herramientas que reemplaza los largos ciclos ¡SEGUIR LEYENDO!

Los Mejores Ofertas de Cursos Udemy

Ciberninjas comparte todos los cursos gratuitos que aparecen en Udemy a lo largo de todo el año y también a compartir las mejores ofertas de Udemy. ¿En serio, te vas a resistir a venir a aprender? A continuación, te queda un amplio listado de algunos de los cursos de programación en español mejor valorados impartidos por los mejores profesionales de Udemy. Si quieres seguir los nuevos ¡SEGUIR LEYENDO!

Deja un comentario