Skip to content

RaniAgus/java-docker-tutorial

Repository files navigation

Desplegando una aplicación Java con Docker

Ejecutar tu TP de DDS en un contenedor Docker es muy sencillo. En esta guía práctica veremos cómo hacerlo.

Introducción

Docker es una plataforma de código abierto que permite a los desarrolladores empaquetar, ejecutar y distribuir aplicaciones dentro de contenedores.

En este tutorial no me voy a detener a explicar muy en detalle qué es un contenedor ni la inmensa cantidad de features que provee Docker, sino que pasaremos a la práctica sobre cómo desplegar una aplicación Java.

Antes de comenzar, les dejo algunos videos que explican muy bien qué es un contenedor y cuál es la diferencia con una máquina virtual. Si bien no son necesarios para seguir el tutorial, es muy recomendable verlos para entender mejor cómo funciona la virtualización con contenedores:

Note

Posta, mírenlos, duran menos de 10 minutos cada uno y están subtitulados al español.

En caso de encontrarte con algún problema al seguir esta guía, pegale un vistazo a la sección de Troubleshooting.

Prerrequisitos

  • Tener instalado Docker en tu computadora. Para ello, podemos seguir las instrucciones que se encuentran en la documentación oficial.

  • Tener una aplicación que ya pueda compilarse a un artefacto (un .jar) que incluya todas sus dependencias con Maven Assembly Plugin con mvn package, y ejecutarse utilizando el comando java -cp, por ejemplo:

java -cp target/example-1.0-SNAPSHOT-jar-with-dependencies.jar io.github.raniagus.example.Application
  • Usar la última versión de flbulgarelli/jpa-extras.

  • Contar con una instalación de gestión de base de datos relacional como PostgreSQL o MySQL en ejecución.

En mi caso voy a utilizar una base de datos PostgreSQL corriendo en el puerto 5432 de mi máquina local. Si estás usando alguna otra, asegurate de utilizar el connection string, usuario, contraseña, driver y dialect correctos a la hora de seguir el tutorial.

Eligiendo una imagen base

Para crear la imagen de nuestra aplicación, es necesario crear un archivo llamado Dockerfile en el directorio raíz del proyecto. Este archivo contiene las instrucciones necesarias para crear la imagen.

Todo archivo Dockerfile comienza con la instrucción FROM. Esta instrucción indica la imagen base que utilizaremos para crear nuestra imagen. Existen un montón de imágenes base disponibles en Docker Hub para prácticamente cualquier versión de cualquier tecnología sin necesidad de instalarla.

En nuestro caso, como vamos a desplegar una aplicación Java 17 construida con Maven, partiremos de una de las imágenes del repositorio de Maven en Docker Hub para Java 17.

Elegí usar la imagen maven:3.9-eclipse-temurin-17 para este tutorial. La misma contiene Maven 3.9 y Java 17. Por otro lado, Eclipse Temurin es una de las tantas distribuciones gratuitas de OpenJDK.

Para incluirla, escribiremos la instrucción FROM seguida de repositorio:tag:

FROM maven:3.9-eclipse-temurin-17

Construyendo nuestra primera imagen

Una vez que tenemos la imagen base, es necesario copiar el código fuente de nuestra aplicación dentro de alguna carpeta del contenedor.

En nuestro caso, vamos a posicionarnos en el directorio /app con la instrucción WORKDIR:

WORKDIR /app

Luego, vamos a copiar el código fuente con la instrucción COPY. Es importante solo copiar los archivos que necesitamos, y no todo el repositorio. En nuestro caso, alcanza con copiar el archivo pom.xml y el directorio src con el código:

COPY pom.xml .
COPY src ./src

Note

También, así como para git existen los archivos .gitignore, para Docker pueden crear un archivo .dockerignore que incluya todos los archivos que no quieran agregar al repo.

A continuación, toca generar el artefacto de nuestra aplicación. Para ello, utilizaremos la instrucción RUN:

RUN mvn package

Como siguiente paso, vamos a indicar que nuestra aplicación se ejecuta en el puerto 8080 del contenedor con la instrucción EXPOSE. Esta instrucción no es obligatoria, pero es una buena práctica para documentar el puerto en el que se ejecuta nuestra aplicación:

EXPOSE 8080

Por último, vamos a indicar cuál es el comando que se debe ejecutar cuando se inicie el contenedor. Para ello, utilizaremos las instrucciones ENTRYPOINT y CMD:

ENTRYPOINT ["java", "-cp", "target/example-1.0-SNAPSHOT-jar-with-dependencies.jar"]
CMD ["io.github.raniagus.example.Application"]
  • ENTRYPOINT indica el comando que se debe ejecutar cuando se inicie el contenedor. En este caso, siempre ejecutaremos una clase que se encuentre dentro del artefacto de la aplicación.
  • CMD indica los argumentos que se le deben pasar al comando que se ejecuta en ENTRYPOINT. En este caso, le pasamos el nombre de la clase que queremos ejecutar.

La diferencia entre ambos es semántica: ENTRYPOINT está pensado para indicar el comando principal de la imagen, mientras que CMD indica argumentos por defecto para dicho comando, que más adelante podremos sobreescribir fácilmente a la hora de ejecutar el contenedor.

Ejecutando nuestra primera imagen

Solo falta construir la imagen y ejecutarla. Para ello, utilizaremos los siguientes comandos:

docker build -t java-app .
docker run --rm -p 7000:8080 java-app
  • docker build construye la imagen y le asigna el tag java-app usando el flag -t.
  • docker run ejecuta la imagen que acabamos de construir:
    • --rm indica que vamos a borrar el contenedor (no la imagen) una vez que se detenga. Recordemos que una imagen es solo un FS estático, mientras que un contenedor es una instancia de dicha imagen en ejecución. Sin este flag, una vez el contenedor se detenga el mismo seguiría ocupando espacio en nuestro sistema en un estado "exited".
    • -p 7000:8080 expone el puerto 8080 del contenedor en el puerto 7000 de nuestra computadora. Esto se debe hacer porque el contenedor se ejecuta en un entorno aislado, por lo que no podríamos acceder a la aplicación desde localhost:8080 como lo haríamos normalmente.

Note

Puse distintos números de puertos para que puedan identificar cuál es cuál, podríamos haber usado tranquilamente 8080:8080 (de hecho, es lo que se suele hacer).

¡Momento! La aplicación tiró una excepción. ¿Qué pasó? ¿Por qué no funciona?

org.postgresql.util.PSQLException: Connection to localhost:5432 refused.
Check that the hostname and port are correct and that the postmaster is accepting TCP/IP connections.

El problema es el mismo que el del puerto, pero al revés: nuestra aplicación intenta conectarse a una base de datos PostgreSQL que corre en el puerto 5432 del propio contenedor, pero la misma se encuentra en nuestra computadora. ¿Cómo lo solucionamos? Por ahora, lo que podemos hacer es editar el archivo persistence.xml para que en lugar de conectarse a localhost se conecte a host.docker.internal. De esta forma, la aplicación se conectará a la base de datos que corre en nuestra computadora:

<property name="javax.persistence.jdbc.url" value="jdbc:postgresql://host.docker.internal:5432/example"/>

Warning

Si estás en Linux, además deberás agregar el flag --add-host=host.docker.internal:host-gateway a docker run para que el contenedor encuentre el puerto:

docker run --rm --add-host=host.docker.internal:host-gateway java-app

Si estás en MacOS, según tengo entendido, el nombre correcto es docker.for.mac.host.internal. Sin embargo, no tengo forma de probarlo porque no tengo una Mac. Si alguien puede probarlo y confirmar que funciona, ¡se agradece!

¡Ahora sí! Si volvemos a construir la imagen y ejecutarla, podremos acceder a la aplicación desde localhost:7000.

Una cosa más: si queremos cambiar la clase de Java que se ejecuta en el contenedor, podemos sobreescribir el CMD al final del docker run, por ejemplo:

docker run --rm java-app io.github.raniagus.example.bootstrap.Bootstrap

En este caso, la aplicación se ejecutará con la clase io.github.raniagus.example.bootstrap.Bootstrap en lugar de io.github.raniagus.example.Application.

Externalizando la configuración

¡Momento! ¿Esto significa que cada vez que queramos cambiar la conexión a la base de datos vamos a tener que modificar el código fuente y volver a construir la imagen?

Esto es una muy mala práctica, ya que significaría que todas las credenciales que utiliza nuestra aplicación estarían hardcodeadas en el código fuente. En un ambiente productivo es un problema de seguridad muy grave, puesto que cualquier persona que tenga acceso al código fuente podría ver las credenciales de la base de datos.

Para evitar esto, vamos a externalizar la configuración de nuestra aplicación utilizando variables de entorno. No es la única forma de hacerlo, pero es la más sencilla ya que no requiere de instalar nada extra, solo un par de cambios en el código.

Vamos a modificar el inicio de nuestro main de la aplicación para que lea las credenciales de la base de datos de las variables de entorno usando la función System.getenv():

import io.github.flbulgarelli.jpa.extras.simple.WithSimplePersistenceUnit;
import org.hibernate.cfg.AvailableSettings;

public static void main(String[] args) {
  WithSimplePersistenceUnit.configure(properties -> properties
      .set("hibernate.connection.url", System.getenv("DATABASE_URL"))
      .set("hibernate.connection.username", System.getenv("DATABASE_USERNAME"))
      .set("hibernate.connection.password", System.getenv("DATABASE_PASSWORD"))
      // También podemos proveer valores por defecto de esta forma:
      .set("hibernate.connection.driver_class", System.getenv().getOrDefault("DATABASE_DRIVER", "org.postgresql.Driver"))
      .set("hibernate.dialect", System.getenv().getOrDefault("DATABASE_DIALECT", "org.hibernate.dialect.PostgresPlusDialect"))
  );

  // ...
}

Con esto, ya podremos pasarle las credenciales de la base de datos como variables de entorno cuando ejecutemos el contenedor:

docker run --rm -p 7000:8080 \
  -e DATABASE_URL=jdbc:postgresql://host.docker.internal:5432/example \
  -e DATABASE_USERNAME=postgres \
  -e DATABASE_PASSWORD=postgres \
  java-app

Note

Desde IntelliJ podemos pasar variables de entorno a la aplicación desde la configuración de ejecución. Para ello, debemos ir a Run > Edit Configurations... y agregar las variables de entorno en la sección Environment variables.

Note

Este es un buen momento para externalizar todas las variables configurables de la aplicación, incluyendo las credenciales de acceso a APIs externas, SMTP, etc.

Optimizando la construcción de la imagen

Si bien la imagen que construimos funciona, tiene un problema: cada vez que modifiquemos el código fuente y queramos volver a construir la imagen, Docker va a volver a descargar todas las dependencias al momento de ejecutar mvn package para generar el artefacto de la aplicación, lo cual toma bastante tiempo.

El Docker Engine es muy inteligente y, cada vez que construimos una imagen, intenta utilizar la mayor cantidad de capas de imágenes que ya existan en el sistema. Cada instrucción del Dockerfile genera una nueva capa de imagen, por lo que podemos aprovechar esto para ahorrar tiempo construyendo la misma.

Lo que haremos es separar en dos capas la instalación de dependencias y la generación del artefacto. Para ello, vamos a editar nuestros COPY y RUN de la siguiente forma:

# Instalamos las dependencias
COPY pom.xml .
RUN mvn -B dependency:go-offline

# Generamos el artefacto
COPY src ./src
RUN mvn package -o

El flag -B dependency:go-offline es una opción del Maven Dependency Plugin que permite instalar todo lo necesario para construir la aplicación de forma offline (es decir, todas las dependencias y plugins definidos en el pom.xml). Por lo tanto, podremos mover el copiado del resto del código fuente a una capa posterior.

El flag -o de mvn package indica que se debe construir la aplicación en modo offline, o sea, sin descargar ninguna dependencia. Este flag es opcional, solo me sirve para demostrar que las dependencias ya se descargaron en la capa anterior.

Entonces, cuando aparezcan cambios en el código (pero no en el pom.xml) Docker reutilizará las capas anteriores a COPY src ./src para construir la imagen, por lo que contaremos con todas las dependencias ya descargadas, ahorrándonos bastante tiempo a la hora de correr mvn package.

Optimizando el tamaño de la imagen

Si bien la imagen que construimos funciona, tiene otro problema: ocupa bastante espacio. Si ejecutamos el comando docker images para ver las imágenes que tenemos en nuestro sistema, veremos que la imagen que construimos supera ampliamente los 500MB:

$ docker images
REPOSITORY           TAG            IMAGE ID       CREATED             SIZE
java-app             latest         64bb59d3a485   4 seconds ago       670MB

Esto se debe a que la imagen base no solo tiene el runtime de Java, sino también el JDK completo y Maven. Una vez construida nuestra aplicación, ¿no sería mejor mandar todo ese almacenamiento a... volaaar? ¡Se puede! Para ello vamos a construir la imagen en varias etapas1.

Nuestro Dockerfile va a tener dos sentencias FROM. La primera será la imagen base para compilar y la segunda será una imagen liviana que solo tenga el runtime de Java. Yo elegí la eclipse-temurin:17-jre-alpine, que es la imagen oficial más liviana de Eclipse Temurin:

  • 17 es la versión de Java que tiene la imagen.
  • jre es la distribución de Java que tiene la imagen (Java Runtime Environment). A diferencia del JDK (Java Development Kit), no incluye el compilador de Java, lo cual hace que la imagen sea más liviana.
  • alpine es una distribución de Linux diseñada para contenedores que solo pesa 5MB. Al ser mucho más ligera que Ubuntu o Debian, los tiempos de descarga son reducidos, se ahorra espacio de almacenamiento en la nube y la superficie de ataque2 es menor al tener menos paquetes instalados.

Entonces la estructura nos va a quedar algo así:

FROM maven:3.9-eclipse-temurin-17 AS builder

WORKDIR /build

# Descargamos las dependencias

# Copiamos y compilamos el código fuente

FROM eclipse-temurin:17-jre-alpine

WORKDIR /app

# Copiamos el artefacto desde la imagen base y los archivos estáticos

# Exponemos el puerto

# Ejecutamos la aplicación

Muy importante: como se trata dos imágenes distintas, vamos a tener que copiar el artefacto de la imagen base a la imagen final. Para esto es necesario darle un nombre a la imagen base y utilizarlo en la sentencia COPY a través del flag --from. En mi caso, como verán arriba, elegí ponerle el nombre builder, así que la instrucción me quedó así:

COPY --from=builder /build/target/*-with-dependencies.jar ./application.jar

Note

Nótese que a su vez renombré el artefacto a application.jar. Esto solo lo hice para que todos los pasos descritos en el Dockerfile sean independientes del nombre y la versión del artefacto. No se olviden de cambiar el nombre en el ENTRYPOINT en caso de usar uno distinto:

ENTRYPOINT ["java", "-cp", "application.jar"]

¡Buenísimo! Ahora si volvemos a construir la imagen y ejecutarla, veremos que la imagen pesa menos de un tercio de lo que pesaba antes:

$ docker build -t java-app .
$ docker images
REPOSITORY           TAG            IMAGE ID       CREATED         SIZE
java-app             latest         3f52e7fde2a4   8 minutes ago   218MB

Segurizando la imagen

Por defecto, la imagen que construimos se ejecuta con el usuario root. Esto es un problema de seguridad, ya que si alguien logra vulnerar nuestra aplicación podría ejecutar comandos privilegiados desde el contenedor.

Para solucionarlo, lo que se suele hacer es crear un usuario no privilegiado y ejecutar la aplicación con dicho usuario.

En la imagen final, vamos a cambiar la línea que dice WORKDIR /app por lo siguiente:

# Estos argumentos se pueden pisar al momento de construir la imagen con `--build-arg`
ARG UID=1001
ARG GID=1001

# Creamos el usuario appuser
RUN addgroup -g "$GID" appuser && \
    adduser -u "$UID" -G appuser -D appuser

# Usamos el usuario no privilegiado que creamos
USER appuser

# Usamos el home del usuario como directorio de trabajo
WORKDIR /home/appuser

¡Excelente! Ya tenemos nuestra primera imagen lista para desplegar.

Desplegando la imagen en un CaaS

Existen un montón de formas de desplegar una imagen Docker. La más sencilla es utilizar un servicio Container-as-a-Service (CaaS)3 que se encargue de construir la imagen y desplegarla en la nube simplemente proveyendo el repositorio y las variables de entorno correspondientes.

Note

Antes de continuar: Servicios de base de datos relacional

Para que funcione nuestra aplicación en la nube necesitamos conectarla una base de datos que también corra en la nube. Algunas alternativas gratuitas son:

Algunas opciones gratuitas al momento de escribir este tutorial (ordenadas de más a menos recomendable) son:

  • Render - Tiene dos formas de desplegar bajo la opción "New Web Service":

    1. A partir de una imagen existente desde un Container Registry como el de Docker Hub, que tiene un plan gratuito. Para publicar una imagen, implemente generamos un Access Token, nos autenticamos con docker login y por último creamos un repositorio donde publicar la imagen con docker push. Luego, desde render, buscamos ese container a partir del mismo repositorio y tag.

    2. La otra opción es vinculando un repositorio de GitHub para buildear y desplegar la imagen cada vez que se pushee a la branch principal. La desventaja de este método es que requiere autorización de la organización para poder vincular el repo.

  • Fly.io - Tiene una CLI desde la cual podemos desplegar una aplicación web manualmente siguiendo este tutorial.

  • back4app - Solamente permite vincular un repositorio de GitHub desde esta página para buildear y desplegar la imagen cada vez que se pushee a la branch principal. También requiere autorización de la organización para hacerlo.

Creando un contenedor que ejecute cron jobs

Por último, toca crear un contenedor que ejecute los cron jobs de nuestro sistema. Para esto, no vamos a poder usar crontab porque dentro de un contenedor no es posible4 pasarle variables de entorno al job.

Por suerte, existe otra herramienta llamada supercronic que nos va a venir como anillo al dedo para ejecutar cron jobs de la misma forma que lo haríamos con crontab.

Antes que nada, tengamos listo nuestro archivo crontab con los jobs a ejecutar. En mi caso, voy a hacer uno que inserte datos de prueba en la base de datos cada 5 minutos y otro que imprima un texto simple cada 15 segundos:

*/5 * * * * java -cp application.jar io.github.raniagus.example.bootstrap.Bootstrap

*/15 * * * * * * echo "Hello from supercronic!"

Nótese que la sintaxis para definir jobs es una versión extendida a la de crontab.

¿Ya estamos? Bueno, ahora sigue duplicar el Dockerfile que ya tenemos armado para la aplicación web en un nuevo archivo cron.Dockerfile, al cual le vamos a cambiar un par de cosas.

  1. Incluimos un par de líneas inmediatamente luego del último FROM para descargar e instalar supercronic:

    FROM eclipse-temurin:17-jre-alpine
    
    ADD "https://github.com/aptible/supercronic/releases/latest/download/supercronic-linux-amd64" /usr/local/bin/supercronic
    
    RUN chmod +x /usr/local/bin/supercronic
    • ADD es una instrucción que nos permite descargar contenido externo e incluirlo directamente dentro del container. En este caso, nos descargamos la última versión de supercronic para linux-amd64 desde las releases en GitHub.

    • chmod +x permite otorgarle permisos de ejecución al binario descargado.

  2. Quitamos el EXPOSE 8080, ya que no va a haber ningún servicio escuchando en ese puerto.

  3. Antes del ENTRYPOINT, copiamos el archivo crontab que tenemos armado:

    COPY crontab .
  4. Cambiamos el ENTRYPOINT y CMD para que el proceso principal ejecute supercronic al iniciar, pasándole el archivo crontab como argumento y el flag -passthrough-logs para que los logs de los jobs se muestren en la consola de una forma más legible:

    ENTRYPOINT ["supercronic"]
    CMD ["-passthrough-logs", "crontab"]

Ahora sí, buildeamos con el flag -f para que se use el nuevo cron.Dockerfile, ejecutamos, y ¡voilà!

docker build -f cron.Dockerfile -t java-cron .

docker run --rm -it \
  -e DATABASE_URL=jdbc:postgresql://host.docker.internal:5432/example \
  -e DATABASE_USERNAME=postgres \
  -e DATABASE_PASSWORD=postgres \
  java-cron

Luego de seguir los mismos pasos que seguimos para desplegar el container de la aplicación web, ya tenemos nuestra aplicación web y nuestros cron jobs corriendo en contenedores de Docker 🚀

Troubleshooting

Acá voy a ir dejando problemas comunes al seguir la guía. En caso de que te encuentres con algo que no hayas podido resolver desde acá, te invito a crear un PR (o, al menos, un issue) describiendo cómo lo pudiste resolver.

Java no encuentra el archivo dentro del contenedor

En Java tenemos muchas formas de abrir un archivo5, pero hay solo dos formas de resolver una ruta relativa:

  1. Desde el classpath, o sea, los archivos que empaqueta Maven leyendo la carpeta src/main/resources. Esto es lo que hace Hibernate para encontrar el archivo META-INF/persistence.xml, o Spark/Javalin para encontrar los templates.

En este caso no hace falta hacer nada extra porque el .jar generado ya contiene todos esos archivos listos para ser leídos.

IMPORTANTE: Si la ruta que le estás pasando al lector de archivos empieza con src/main/resources, muy probablemente no estés usando un lector desde el classpath, sino que estarás usando uno que lee...

  1. Desde el sistema operativo, es decir, a partir de la ruta en la que el IDE corre nuestra aplicación, o la carpeta desde la que Docker corre nuestro .jar. En este caso vamos a necesitar copiar los archivos desde el repo hacia el contenedor usando COPY.

Por ejemplo, supongamos que tengo una carpeta data con un weak_passwords.txt y mi aplicación lo lee de la siguiente forma:

try (var inputStream = new FileInputStream("data/weak_passwords.txt")) {
 // ...
}

Como FileInputStream lee archivos desde el sistema operativo, voy a necesitar copiarlos agregando la siguiente línea:

COPY data ./data

Por eso antes mencionaba que si tu ruta empieza con src/main/resources muy probablemente te encuentres acá: porque el IDE puede encontrar el archivo ya que se encuentra en el mismo sistema operativo, pero en el contenedor eventualmente vamos a descartar dichos archivos y quedarnos solo con el .jar. Es por esto que requerimos de hacer un COPY aparte para traernos el archivo al container.

Como alternativa a esto, quizás sea conveniente cambiar tu lector de archivos por uno que lea desde el classpath, para así quitar la parte que dice src/main/resources.

Material recomendado

Footnotes

  1. https://docs.docker.com/build/building/multi-stage/

  2. https://www.ibm.com/mx-es/topics/attack-surface

  3. https://www.atlassian.com/microservices/cloud-computing/containers-as-a-service

  4. O, al menos, no encontré ninguna forma de hacerlo sin ejecutar el contenedor como root, lo cual es lo que queremos evitar.

  5. https://www.baeldung.com/reading-file-in-java