├── dockerfile ├── helloworld-loop │ ├── hello_world │ ├── print_loop.sh │ └── Dockerfile ├── java-hello │ ├── .gitignore │ ├── Dockerfile │ ├── Dockerfile-multistage │ ├── src │ │ └── main │ │ │ └── java │ │ │ └── com │ │ │ └── porty │ │ │ └── dockerfile │ │ │ └── HelloJavaSpringBoot.java │ └── pom.xml ├── nodejs-hello │ ├── Dockerfile │ └── hello-world.js ├── helloworld │ └── Dockerfile ├── go-hello │ ├── main.go │ └── Dockerfile └── go-hello-multistage │ ├── main.go │ └── Dockerfile ├── weekend-service ├── settings.gradle ├── gradle │ └── wrapper │ │ ├── gradle-wrapper.jar │ │ └── gradle-wrapper.properties ├── k8s │ ├── k8s-weekend-svc.yaml │ ├── k8s-weekend-deploy.yaml │ └── resources │ │ └── k8s-weekend-deploy.yaml ├── build.gradle ├── Dockerfile ├── gradlew.bat ├── src │ └── main │ │ └── java │ │ └── com │ │ └── porty │ │ └── k8s │ │ └── WeekendService.java └── gradlew ├── .gitignore ├── k8s-ops ├── dev-namespace.yaml └── dev-resource-quota.yaml ├── time-service ├── k8s │ ├── autoscale │ │ └── hpa-time-service.yaml │ ├── blue-green │ │ ├── blue │ │ │ ├── k8s-time-svc-blue.yaml │ │ │ └── k8s-time-deploy-blue.yaml │ │ ├── green │ │ │ ├── k8s-time-svc-green.yaml │ │ │ └── k8s-time-deploy-green.yaml │ │ └── k8s-time-svc-green.yaml │ ├── k8s-time-svc.yaml │ ├── update │ │ ├── rolling-0.1.0 │ │ │ ├── k8s-time-svc.yaml │ │ │ └── k8s-time-deploy.yaml │ │ ├── k8s-time-deploy.yaml │ │ ├── broken │ │ │ └── k8s-time-deploy.yaml │ │ └── rolling-0.2.0 │ │ │ └── k8s-time-deploy.yaml │ ├── canary │ │ └── k8s-time-deploy-canary.yaml │ └── k8s-time-deploy.yaml ├── Dockerfile └── main.go ├── .github └── workflows │ ├── cluster-setup.yml │ ├── k8s-objects.yml │ ├── svc-weekend-service.yml │ ├── k8s-resources.yml │ ├── time-service.yml │ ├── k8s-labels.yml │ ├── docker-image.yml │ └── k8s-deployment.yml ├── LICENSE └── README.md /dockerfile/helloworld-loop/hello_world: -------------------------------------------------------------------------------- 1 | привет мир! -------------------------------------------------------------------------------- /dockerfile/java-hello/.gitignore: -------------------------------------------------------------------------------- 1 | target/ 2 | *.iml 3 | .idea 4 | -------------------------------------------------------------------------------- /weekend-service/settings.gradle: -------------------------------------------------------------------------------- 1 | rootProject.name = 'weekend-service' 2 | 3 | -------------------------------------------------------------------------------- /.gitignore: -------------------------------------------------------------------------------- 1 | **/.idea/ 2 | **/.gradle/ 3 | **/out/ 4 | **/build/ 5 | **/.DS_Store 6 | -------------------------------------------------------------------------------- /dockerfile/helloworld-loop/print_loop.sh: -------------------------------------------------------------------------------- 1 | #!/bin/bash 2 | while true; do date; cat hello_world; sleep $1; done 3 | -------------------------------------------------------------------------------- /k8s-ops/dev-namespace.yaml: -------------------------------------------------------------------------------- 1 | apiVersion: v1 2 | kind: Namespace 3 | metadata: 4 | name: dev 5 | spec: {} 6 | status: {} 7 | -------------------------------------------------------------------------------- /weekend-service/gradle/wrapper/gradle-wrapper.jar: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ivanporty/cloud-docker-k8s/HEAD/weekend-service/gradle/wrapper/gradle-wrapper.jar -------------------------------------------------------------------------------- /dockerfile/nodejs-hello/Dockerfile: -------------------------------------------------------------------------------- 1 | # базовый образ - npm, node и все остальное для Node.js 17 2 | FROM node:17 3 | 4 | COPY hello-world.js . 5 | 6 | CMD ["node", "hello-world.js"] 7 | -------------------------------------------------------------------------------- /k8s-ops/dev-resource-quota.yaml: -------------------------------------------------------------------------------- 1 | apiVersion: v1 2 | kind: ResourceQuota 3 | metadata: 4 | name: dev-resources 5 | spec: 6 | hard: 7 | requests.cpu: "2" 8 | requests.memory: 2Gi 9 | limits.cpu: "4" 10 | limits.memory: 4Gi 11 | -------------------------------------------------------------------------------- /dockerfile/helloworld/Dockerfile: -------------------------------------------------------------------------------- 1 | # Используем полную версию Ubuntu как базовый образ 2 | FROM ubuntu 3 | # Любые команды Ubuntu теперь доступны для запуска RUN 4 | # Но, они запускаются при построении образа, не для запуска контейнера 5 | RUN echo "привет мир!" > hello_world -------------------------------------------------------------------------------- /weekend-service/gradle/wrapper/gradle-wrapper.properties: -------------------------------------------------------------------------------- 1 | distributionBase=GRADLE_USER_HOME 2 | distributionPath=wrapper/dists 3 | distributionUrl=https\://services.gradle.org/distributions/gradle-6.9-bin.zip 4 | zipStoreBase=GRADLE_USER_HOME 5 | zipStorePath=wrapper/dists 6 | -------------------------------------------------------------------------------- /weekend-service/k8s/k8s-weekend-svc.yaml: -------------------------------------------------------------------------------- 1 | apiVersion: v1 2 | kind: Service 3 | metadata: 4 | labels: 5 | app: weekend-service 6 | name: weekend-service 7 | spec: 8 | ports: 9 | - port: 5678 10 | selector: 11 | app: weekend-service 12 | type: NodePort 13 | -------------------------------------------------------------------------------- /dockerfile/go-hello/main.go: -------------------------------------------------------------------------------- 1 | package main 2 | 3 | import ( 4 | "fmt" 5 | "log" 6 | "net/http" 7 | ) 8 | 9 | func main() { 10 | 11 | http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) { 12 | fmt.Fprintf(w, "Привет из контейнера с сервисом Go") 13 | }) 14 | 15 | log.Fatal(http.ListenAndServe(":8080", nil)) 16 | 17 | } 18 | -------------------------------------------------------------------------------- /time-service/k8s/autoscale/hpa-time-service.yaml: -------------------------------------------------------------------------------- 1 | apiVersion: autoscaling/v1 2 | kind: HorizontalPodAutoscaler 3 | metadata: 4 | name: time-service 5 | spec: 6 | maxReplicas: 3 7 | minReplicas: 1 8 | scaleTargetRef: 9 | apiVersion: apps/v1 10 | kind: Deployment 11 | name: time-service 12 | targetCPUUtilizationPercentage: 80 13 | -------------------------------------------------------------------------------- /dockerfile/go-hello-multistage/main.go: -------------------------------------------------------------------------------- 1 | package main 2 | 3 | import ( 4 | "fmt" 5 | "log" 6 | "net/http" 7 | ) 8 | 9 | func main() { 10 | 11 | http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) { 12 | fmt.Fprintf(w, "Привет из контейнера с сервисом Go") 13 | }) 14 | 15 | log.Fatal(http.ListenAndServe(":8080", nil)) 16 | 17 | } 18 | -------------------------------------------------------------------------------- /dockerfile/helloworld-loop/Dockerfile: -------------------------------------------------------------------------------- 1 | # Используем полную версию Ubuntu как базовый образ 2 | FROM ubuntu 3 | 4 | # Поменяем рабочую директорию на более удобную 5 | WORKDIR /opt/helloworld 6 | 7 | # Скопируем нужные нам для работы контейнера файлы в образ 8 | COPY hello_world ./ 9 | COPY print_loop.sh ./ 10 | 11 | # Команда CMD или ENTRYPOINT исполняется при запуске контейнера 12 | CMD ["/opt/helloworld/print_loop.sh", "2"] -------------------------------------------------------------------------------- /dockerfile/go-hello/Dockerfile: -------------------------------------------------------------------------------- 1 | # базовый образ - компилятор и все необходимое для Go 1.18 2 | FROM golang:1.18 3 | 4 | # Соберем и запустим приложение в этой директории 5 | WORKDIR /app 6 | 7 | # Скопируем код программы в файловую систему контейнера 8 | COPY main.go . 9 | 10 | # Соберем программу из исходного кода, в файл hello-go 11 | RUN go build -o hello-go main.go 12 | 13 | # Запустим программу при запуске контейнера 14 | CMD ["./hello-go"] 15 | -------------------------------------------------------------------------------- /dockerfile/nodejs-hello/hello-world.js: -------------------------------------------------------------------------------- 1 | const http = require('http'); 2 | 3 | const hostname = '0.0.0.0'; 4 | const port = 3000; 5 | 6 | const server = http.createServer((req, res) => { 7 | res.statusCode = 200; 8 | res.setHeader('Content-Type', 'text/plain'); 9 | res.end('Привет от контейнера с сервером Node.js!'); 10 | }); 11 | 12 | server.listen(port, hostname, () => { 13 | console.log(`Сервер запущен по адресу http://${hostname}:${port}/`); 14 | }); 15 | -------------------------------------------------------------------------------- /time-service/k8s/blue-green/blue/k8s-time-svc-blue.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: v1 3 | # Тип объекта 4 | kind: Service 5 | metadata: 6 | labels: 7 | app: time-service 8 | version: blue 9 | name: time-service 10 | spec: 11 | # список портов. Дополнительно можно указать протокол 12 | ports: 13 | - port: 8080 14 | # по этим меткам идет поиск синих отсеков 15 | selector: 16 | app: time-service 17 | version: blue 18 | # тип сервиса. В облаке можно использовать LoadBalancer 19 | type: NodePort 20 | -------------------------------------------------------------------------------- /dockerfile/java-hello/Dockerfile: -------------------------------------------------------------------------------- 1 | # базовый образ - OpenJDK 11 и установленный Maven 2 | FROM maven:3.6.2-jdk-11 3 | 4 | # Соберем и запустим приложение в этой директории 5 | WORKDIR /app 6 | 7 | # Для сборки проекта Maven нужны исходные тексты программы 8 | # и непосредственно файл сборки pom.xml 9 | COPY pom.xml ./ 10 | COPY src/ ./src/ 11 | 12 | # Компиляция, сбока и упаковка приложения в архив JAR 13 | RUN mvn package 14 | 15 | # Запуск приложения виртуальной машиной Java из базового образа 16 | CMD ["java", "-jar", "/app/target/hello-world-1.0.0.jar"] 17 | -------------------------------------------------------------------------------- /time-service/k8s/k8s-time-svc.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: v1 3 | # Тип объекта 4 | kind: Service 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | labels: 8 | app: time-service 9 | name: time-service 10 | spec: 11 | # список портов. Дополнительно можно указать протокол 12 | ports: 13 | - port: 8080 14 | # по этим меткам идет поиск отсеков, куда отправляются запросы 15 | selector: 16 | app: time-service 17 | # тип сервиса. В облаке можно использовать LoadBalancer 18 | type: NodePort 19 | -------------------------------------------------------------------------------- /.github/workflows/cluster-setup.yml: -------------------------------------------------------------------------------- 1 | name: Настройка кластера K8s 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Проверка первых команд kubectl на minikube 21 | run: | 22 | minikube start 23 | kubectl config current-context 24 | kubectl cluster-info 25 | kubectl get nodes 26 | -------------------------------------------------------------------------------- /time-service/k8s/update/rolling-0.1.0/k8s-time-svc.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: v1 3 | # Тип объекта 4 | kind: Service 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | labels: 8 | app: time-service 9 | name: time-service 10 | spec: 11 | # список портов. Дополнительно можно указать протокол 12 | ports: 13 | - port: 8080 14 | # по этим меткам идет поиск отсеков, куда отправляются запросы 15 | selector: 16 | app: time-service 17 | # тип сервиса. В облаке можно использовать LoadBalancer 18 | type: NodePort 19 | -------------------------------------------------------------------------------- /time-service/k8s/blue-green/green/k8s-time-svc-green.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: v1 3 | # Тип объекта 4 | kind: Service 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | labels: 8 | app: time-service 9 | version: green 10 | name: time-service 11 | spec: 12 | # список портов. Дополнительно можно указать протокол 13 | ports: 14 | - port: 8080 15 | # по этим меткам идет поиск зеленых отсеков 16 | selector: 17 | app: time-service 18 | version: green 19 | # тип сервиса. В облаке можно использовать LoadBalancer 20 | type: NodePort 21 | -------------------------------------------------------------------------------- /time-service/k8s/blue-green/k8s-time-svc-green.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: v1 3 | # Тип объекта 4 | kind: Service 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | labels: 8 | app: time-service 9 | version: green 10 | name: time-service 11 | spec: 12 | # список портов. Дополнительно можно указать протокол 13 | ports: 14 | - port: 8080 15 | # список меток зеленых отсеков для отправки запросов 16 | selector: 17 | app: time-service 18 | version: green 19 | # тип сервиса. В облаке можно использовать LoadBalancer 20 | type: NodePort 21 | -------------------------------------------------------------------------------- /weekend-service/k8s/k8s-weekend-deploy.yaml: -------------------------------------------------------------------------------- 1 | apiVersion: apps/v1 2 | kind: Deployment 3 | metadata: 4 | labels: 5 | app: weekend-service 6 | name: weekend-service 7 | spec: 8 | selector: 9 | matchLabels: 10 | app: weekend-service 11 | template: 12 | metadata: 13 | labels: 14 | app: weekend-service 15 | spec: 16 | containers: 17 | - name: weekend-service 18 | image: ivanporty/weekend-service:0.2.0 19 | readinessProbe: 20 | httpGet: 21 | path: /ready 22 | port: 5678 23 | periodSeconds: 2 24 | initialDelaySeconds: 5 25 | failureThreshold: 2 26 | successThreshold: 1 27 | -------------------------------------------------------------------------------- /weekend-service/build.gradle: -------------------------------------------------------------------------------- 1 | plugins { 2 | id 'java' 3 | id 'com.google.cloud.tools.jib' version '3.2.1' 4 | } 5 | 6 | group 'com.porty.k8s' 7 | version '0.1.0-SNAPSHOT' 8 | 9 | sourceCompatibility = 1.8 10 | 11 | repositories { 12 | mavenCentral() 13 | } 14 | 15 | dependencies { 16 | compile "com.sparkjava:spark-core:2.7.2" 17 | compile "org.slf4j:slf4j-simple:1.7+" 18 | compile "com.google.code.gson:gson:2.8+" 19 | } 20 | 21 | // особый способ упаковки сервиса java в контейнер - 22 | // все библиотеки складываем в "толстый архив" (fat JAR) 23 | jar { 24 | manifest { attributes "Main-Class": "com.porty.k8s.WeekendService" } 25 | from { 26 | configurations.compile.collect { it.isDirectory() ? it : zipTree(it) } 27 | } 28 | } 29 | -------------------------------------------------------------------------------- /weekend-service/Dockerfile: -------------------------------------------------------------------------------- 1 | # Первая ступень на основе стандартного образа Gradle 2 | FROM gradle:6.9-jdk11 as builder 3 | 4 | # Директория для файлов проекта 5 | WORKDIR weekend-service/ 6 | 7 | # Копируем файл сборки и исходный код 8 | COPY build.gradle ./ 9 | COPY src/ ./src/ 10 | 11 | # Сборка 12 | RUN gradle build 13 | 14 | # Вторая ступень для окончательной сборки 15 | # Минимальная версия JRE, версия 11, открытая версия OpenJDK 16 | FROM openjdk:11-jre-slim 17 | 18 | # Такая же директория 19 | WORKDIR weekend-service/ 20 | # Скопируем архив JAR из первой ступени 21 | COPY --from=builder home/gradle/weekend-service/build/libs/weekend-service-0.1.0-SNAPSHOT.jar . 22 | 23 | # Объявим свой порт 24 | EXPOSE 5678 25 | 26 | CMD ["java", "-jar", "/weekend-service/weekend-service-0.1.0-SNAPSHOT.jar"] 27 | -------------------------------------------------------------------------------- /dockerfile/go-hello-multistage/Dockerfile: -------------------------------------------------------------------------------- 1 | # первая ступень - компилятор и все необходимое для Go 1.18 2 | FROM golang:1.18 as builder 3 | 4 | # Соберем и запустим приложение в этой директории 5 | WORKDIR /app 6 | 7 | # Скопируем код программы в файловую систему контейнера 8 | COPY main.go . 9 | 10 | # Соберем программу из исходного кода, в файл hello-go 11 | # Необходимо указать дополнительные флаги сборки Go 12 | RUN CGO_ENABLED=0 GOOS=linux go build -a -o hello-go main.go 13 | 14 | # вторая ступень - спартанская версия Linux Alpine 15 | FROM alpine:3.15 16 | 17 | # Используем такую же рабочую директорию 18 | WORKDIR /app 19 | 20 | # Скопируем собранный бинарный код из первой ступени 21 | COPY --from=builder /app/hello-go . 22 | 23 | # Запустим программу при запуске контейнера 24 | CMD ["/app/hello-go"] 25 | -------------------------------------------------------------------------------- /time-service/Dockerfile: -------------------------------------------------------------------------------- 1 | # Собирает образ для контейнера с сервисом получения времени. 2 | FROM golang:1.18 as builder 3 | 4 | # Изменим рабочую директорию 5 | WORKDIR /opt/time-service 6 | 7 | # Скопируем код программы в файловую систему контейнера 8 | COPY main.go . 9 | 10 | # Соберем программу из исходного кода, в файл time-service 11 | # Необходимо указать дополнительные флаги сборки Go 12 | RUN CGO_ENABLED=0 GOOS=linux go build -a -o time-service main.go 13 | 14 | # вторая ступень - спартанская версия Linux Alpine 15 | FROM alpine:3.10 16 | 17 | # номер порта, используемого контейнером 18 | EXPOSE 8080 19 | # Используем такую же рабочую директорию 20 | WORKDIR /opt/time-service 21 | 22 | # Скопируем собранный бинарный код из первой ступени 23 | COPY --from=builder /opt/time-service/time-service . 24 | 25 | CMD [ "/opt/time-service/time-service" ] -------------------------------------------------------------------------------- /dockerfile/java-hello/Dockerfile-multistage: -------------------------------------------------------------------------------- 1 | # первая ступень - базовый образ - OpenJDK 11 и установленный Maven 2 | FROM maven:3.6.2-jdk-11 as builder 3 | 4 | # Соберем и запустим приложение в этой директории 5 | WORKDIR /app 6 | 7 | # Для сборки проекта Maven нужны исходные тексты программы 8 | # и непосредственно файл сборки pom.xml 9 | COPY pom.xml ./ 10 | COPY src/ ./src/ 11 | 12 | # Компиляция, сборка и упаковка приложения в архив JAR 13 | RUN mvn package 14 | 15 | # Минимальная версия JRE, версия 11, открытая версия OpenJDK 16 | FROM openjdk:11-jre-slim 17 | 18 | # Используем такую же рабочую директорию 19 | WORKDIR /app 20 | # Скопируем архив JAR из первой ступени 21 | COPY --from=builder /app/target/hello-world-1.0.0.jar . 22 | 23 | # Запуск приложения виртуальной машиной Java OpenJDK 11 24 | CMD ["java", "-jar", "/app/hello-world-1.0.0.jar"] 25 | -------------------------------------------------------------------------------- /weekend-service/k8s/resources/k8s-weekend-deploy.yaml: -------------------------------------------------------------------------------- 1 | apiVersion: apps/v1 2 | kind: Deployment 3 | metadata: 4 | labels: 5 | app: weekend-service 6 | name: weekend-service 7 | spec: 8 | selector: 9 | matchLabels: 10 | app: weekend-service 11 | template: 12 | metadata: 13 | labels: 14 | app: weekend-service 15 | spec: 16 | containers: 17 | - name: weekend-service 18 | image: ivanporty/weekend-service:0.2.0 19 | readinessProbe: 20 | httpGet: 21 | path: /ready 22 | port: 5678 23 | periodSeconds: 2 24 | initialDelaySeconds: 5 25 | failureThreshold: 2 26 | successThreshold: 1 27 | resources: 28 | requests: 29 | memory: "128M" 30 | cpu: "1" 31 | limits: 32 | memory: "512M" 33 | cpu: "2" 34 | -------------------------------------------------------------------------------- /dockerfile/java-hello/src/main/java/com/porty/dockerfile/HelloJavaSpringBoot.java: -------------------------------------------------------------------------------- 1 | package com.porty.dockerfile; 2 | 3 | import org.springframework.boot.SpringApplication; 4 | import org.springframework.boot.autoconfigure.SpringBootApplication; 5 | import org.springframework.web.bind.annotation.GetMapping; 6 | import org.springframework.web.bind.annotation.RestController; 7 | 8 | /** Простейший HTTP сервис Java с использованием Spring Boot */ 9 | @SpringBootApplication 10 | public class HelloJavaSpringBoot { 11 | // запускает стандартный сервер Jetty, порт 8080 12 | public static void main(String[] args) { 13 | SpringApplication.run(HelloJavaSpringBoot.class); 14 | } 15 | 16 | 17 | @RestController 18 | public static final class HelloWorldController { 19 | // обрабатываем запрос к корневому пути / 20 | @GetMapping("/") 21 | public String helloWorld() { 22 | return "Привет, это Java Spring Boot из контейнера!"; 23 | } 24 | } 25 | } -------------------------------------------------------------------------------- /time-service/k8s/blue-green/blue/k8s-time-deploy-blue.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток синего развертывания Deployment 8 | labels: 9 | app: time-service 10 | version: blue 11 | name: time-service 12 | # Описание собственно правил развертывания контейнера 13 | # Вложенный объект DeploymentSpec 14 | spec: 15 | # Количество запущенных отсеков pods для масштабирования 16 | replicas: 1 17 | selector: 18 | matchLabels: 19 | app: time-service 20 | version: blue 21 | # описание шаблона для создания новых отсеков 22 | template: 23 | metadata: 24 | # список меток синих отсеков 25 | labels: 26 | app: time-service 27 | version: blue 28 | # старая версия 0.1.0 29 | spec: 30 | containers: 31 | - image: ivanporty/time-service:0.1.0 32 | name: time-service 33 | 34 | -------------------------------------------------------------------------------- /time-service/k8s/blue-green/green/k8s-time-deploy-green.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток зеленого развертывания Deployment 8 | labels: 9 | app: time-service 10 | version: green 11 | name: time-service-green 12 | # Описание собственно правил развертывания контейнера 13 | # Вложенный объект DeploymentSpec 14 | spec: 15 | # Количество запущенных отсеков pods для масштабирования 16 | replicas: 1 17 | selector: 18 | matchLabels: 19 | app: time-service 20 | version: green 21 | # описание шаблона для создания новых отсеков 22 | template: 23 | metadata: 24 | # список меток зеленых отсеков 25 | labels: 26 | app: time-service 27 | version: green 28 | # старая версия 0.1.0 29 | spec: 30 | containers: 31 | - image: ivanporty/time-service:0.2.0 32 | name: time-service 33 | 34 | -------------------------------------------------------------------------------- /time-service/k8s/canary/k8s-time-deploy-canary.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток канареечного развертывания 8 | labels: 9 | app: time-service 10 | release: canary 11 | name: time-service-canary 12 | # Описание собственно правил развертывания контейнера 13 | # Вложенный объект DeploymentSpec 14 | spec: 15 | # Количество запущенных отсеков pods для масштабирования 16 | replicas: 1 17 | selector: 18 | matchLabels: 19 | app: time-service 20 | release: canary 21 | # описание шаблона для создания новых отсеков 22 | template: 23 | metadata: 24 | # список меток для канареечных отсеков pods 25 | labels: 26 | app: time-service 27 | release: canary 28 | # непосредственно описание контейнера в отсеке 29 | spec: 30 | containers: 31 | - image: ivanporty/time-service:0.2.0 32 | name: time-service 33 | 34 | -------------------------------------------------------------------------------- /time-service/k8s/k8s-time-deploy.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток самого объекта Deployment 8 | labels: 9 | app: time-service 10 | # аннотации объекта 11 | annotations: 12 | owner: ivan.porty@ipsoftware.ru 13 | name: time-service 14 | # Описание собственно правил развертывания контейнера 15 | # Вложенный объект DeploymentSpec 16 | spec: 17 | # Количество запущенных отсеков pods для масштабирования 18 | replicas: 1 19 | # максимальное количество редакций (revisions) 20 | revisionHistoryLimit: 5 21 | selector: 22 | matchLabels: 23 | app: time-service 24 | # описание шаблона для создания новых отсеков 25 | template: 26 | metadata: 27 | # список меток для нового отсека 28 | labels: 29 | app: time-service 30 | # непосредственно описание контейнера в отсеке 31 | spec: 32 | containers: 33 | - image: ivanporty/time-service:0.1.0 34 | name: time-service 35 | -------------------------------------------------------------------------------- /LICENSE: -------------------------------------------------------------------------------- 1 | MIT License 2 | 3 | Copyright (c) 2022 Ivan Porty 4 | 5 | Permission is hereby granted, free of charge, to any person obtaining a copy 6 | of this software and associated documentation files (the "Software"), to deal 7 | in the Software without restriction, including without limitation the rights 8 | to use, copy, modify, merge, publish, distribute, sublicense, and/or sell 9 | copies of the Software, and to permit persons to whom the Software is 10 | furnished to do so, subject to the following conditions: 11 | 12 | The above copyright notice and this permission notice shall be included in all 13 | copies or substantial portions of the Software. 14 | 15 | THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR 16 | IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, 17 | FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE 18 | AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER 19 | LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, 20 | OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE 21 | SOFTWARE. 22 | -------------------------------------------------------------------------------- /time-service/main.go: -------------------------------------------------------------------------------- 1 | package main 2 | 3 | import ( 4 | "encoding/json" 5 | "log" 6 | "net/http" 7 | "strconv" 8 | "time" 9 | ) 10 | 11 | type Time struct { 12 | Time string `json:"time,omitempty"` 13 | NanoTime string `json:"nanoTime,omitempty"` 14 | } 15 | 16 | func main() { 17 | log.Print("Начало работы сервиса time-service") 18 | 19 | http.HandleFunc("/time", serveTime) 20 | http.HandleFunc("/nanotime", serveNanoTime) 21 | log.Fatal(http.ListenAndServe("0.0.0.0:8080", nil)) 22 | } 23 | 24 | func serveTime(w http.ResponseWriter, r *http.Request) { 25 | log.Print("Вызов функции serveTime()") 26 | var serverTime Time 27 | // используйте этот код, чтобы собрать версию сервиса 0.1.0 28 | // serverTime.Time = time.Now().String() 29 | // новый формат времени для версии 0.2.0 30 | serverTime.Time = time.Now().Format("02 Jan 2006") 31 | json.NewEncoder(w).Encode(serverTime) 32 | } 33 | 34 | func serveNanoTime(w http.ResponseWriter, r *http.Request) { 35 | log.Print("Вызов функции serveNanoTime()") 36 | var nanoTime Time 37 | nanoTime.NanoTime = strconv.FormatInt(time.Now().UnixNano(), 10) 38 | json.NewEncoder(w).Encode(nanoTime) 39 | } 40 | -------------------------------------------------------------------------------- /time-service/k8s/update/k8s-time-deploy.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток самого объекта Deployment 8 | labels: 9 | app: time-service 10 | # аннотации объекта 11 | annotations: 12 | owner: ivan.porty@ipsoftware.ru 13 | kubernetes.io/change-cause: Updated version to 0.2.0 14 | name: time-service 15 | # Описание собственно правил развертывания контейнера 16 | # Вложенный объект DeploymentSpec 17 | spec: 18 | # Количество запущенных отсеков pods для масштабирования 19 | replicas: 1 20 | # максимальное количество редакций (revisions) 21 | revisionHistoryLimit: 5 22 | selector: 23 | matchLabels: 24 | app: time-service 25 | # описание шаблона для создания новых отсеков 26 | template: 27 | metadata: 28 | # список меток для нового отсека 29 | labels: 30 | app: time-service 31 | # обновленная версия контейнера в отсеке 32 | spec: 33 | containers: 34 | - image: ivanporty/time-service:0.2.0 35 | name: time-service 36 | 37 | -------------------------------------------------------------------------------- /time-service/k8s/update/broken/k8s-time-deploy.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток самого объекта Deployment 8 | labels: 9 | app: time-service 10 | # аннотации объекта 11 | annotations: 12 | owner: ivan.porty@ipsoftware.ru 13 | kubernetes.io/change-cause: Updated version to release 1.0! 14 | name: time-service 15 | # Описание собственно правил развертывания контейнера 16 | # Вложенный объект DeploymentSpec 17 | spec: 18 | # Количество запущенных отсеков pods для масштабирования 19 | replicas: 1 20 | # максимальное количество редакций (revisions) 21 | revisionHistoryLimit: 5 22 | selector: 23 | matchLabels: 24 | app: time-service 25 | # описание шаблона для создания новых отсеков 26 | template: 27 | metadata: 28 | # список меток для нового отсека 29 | labels: 30 | app: time-service 31 | # обновленная версия контейнера в отсеке 32 | spec: 33 | containers: 34 | - image: ivanporty/time-service:1.0.0 35 | name: time-service 36 | 37 | -------------------------------------------------------------------------------- /time-service/k8s/update/rolling-0.1.0/k8s-time-deploy.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток самого объекта Deployment 8 | labels: 9 | app: time-service 10 | # аннотации объекта 11 | annotations: 12 | owner: ivan.porty@ipsoftware.ru 13 | name: time-service 14 | # Описание собственно правил развертывания контейнера 15 | # Вложенный объект DeploymentSpec 16 | spec: 17 | # Количество запущенных отсеков pods для масштабирования 18 | replicas: 3 19 | # максимальное количество редакций (revisions) 20 | revisionHistoryLimit: 5 21 | # стратегия обновления 22 | strategy: 23 | type: RollingUpdate 24 | rollingUpdate: 25 | maxSurge: 1 26 | maxUnavailable: 2 27 | selector: 28 | matchLabels: 29 | app: time-service 30 | # описание шаблона для создания новых отсеков 31 | template: 32 | metadata: 33 | # список меток для нового отсека 34 | labels: 35 | app: time-service 36 | # обновленная версия контейнера в отсеке 37 | spec: 38 | containers: 39 | - image: ivanporty/time-service:0.1.0 40 | name: time-service 41 | -------------------------------------------------------------------------------- /time-service/k8s/update/rolling-0.2.0/k8s-time-deploy.yaml: -------------------------------------------------------------------------------- 1 | # Версия программного интерфейса Kubernetes 2 | apiVersion: apps/v1 3 | # Тип объекта 4 | kind: Deployment 5 | # Метаданные нашего объекта, вложенный объект ObjectMeta 6 | metadata: 7 | # список меток самого объекта Deployment 8 | labels: 9 | app: time-service 10 | # аннотации объекта 11 | annotations: 12 | owner: ivan.porty@ipsoftware.ru 13 | kubernetes.io/change-cause: Updated version to 0.2.0 14 | name: time-service 15 | # Описание собственно правил развертывания контейнера 16 | # Вложенный объект DeploymentSpec 17 | spec: 18 | # Количество запущенных отсеков pods для масштабирования 19 | replicas: 3 20 | # максимальное количество редакций (revisions) 21 | revisionHistoryLimit: 5 22 | # стратегия обновления 23 | strategy: 24 | type: RollingUpdate 25 | rollingUpdate: 26 | maxSurge: 1 27 | maxUnavailable: 2 28 | selector: 29 | matchLabels: 30 | app: time-service 31 | # описание шаблона для создания новых отсеков 32 | template: 33 | metadata: 34 | # список меток для нового отсека 35 | labels: 36 | app: time-service 37 | # обновленная версия контейнера в отсеке, вместе с проверкой готовности 38 | spec: 39 | containers: 40 | - image: ivanporty/time-service:0.2.0 41 | name: time-service 42 | readinessProbe: 43 | httpGet: 44 | path: /time 45 | port: 8080 46 | periodSeconds: 2 47 | initialDelaySeconds: 5 48 | failureThreshold: 2 49 | successThreshold: 1 50 | livenessProbe: 51 | httpGet: 52 | path: /time 53 | port: 8080 54 | periodSeconds: 2 55 | initialDelaySeconds: 5 56 | failureThreshold: 2 57 | successThreshold: 1 58 | 59 | -------------------------------------------------------------------------------- /.github/workflows/k8s-objects.yml: -------------------------------------------------------------------------------- 1 | name: Объекты YAML K8s CI 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Создание K8s Deployment YAML на основе шаблона 21 | run: | 22 | # используем легковесный кластер kind для простых тестов 23 | kind create cluster 24 | kubectl create deployment time-service --image=ivanporty/time-service:0.1.0 --dry-run=client -o yaml > k8s-time-deploy-dry-run.yaml 25 | kubectl create -f k8s-time-deploy-dry-run.yaml 26 | # ожидание запуска 27 | kubectl rollout status deployment/time-service --timeout 60s 28 | kubectl get deployments 29 | kubectl delete deployment/time-service 30 | # развертывание из готового файла 31 | cd time-service/k8s/ 32 | kubectl create -f k8s-time-deploy.yaml 33 | kubectl rollout status deployment/time-service --timeout 60s 34 | kubectl get deployments 35 | - name: Создание K8s Service YAML на основе шаблона 36 | run: | 37 | kubectl expose deployment time-service --port=8080 --type=NodePort --dry-run=client -o yaml 38 | cd time-service/k8s/ 39 | kubectl create -f k8s-time-svc.yaml 40 | kubectl get services 41 | - name: Декларативное и императивное управление 42 | run: | 43 | cd time-service/ 44 | kubectl delete -f k8s/ 45 | kubectl apply -f k8s/ 46 | kubectl rollout status deployment/time-service --timeout 60s 47 | # симуляция обновленного развертывания 48 | kubectl create deployment time-service --image=ivanporty/time-service:0.1.0 --dry-run=client -o yaml --replicas=2 > deploy-2-replicas.yaml 49 | kubectl apply -f . 50 | kubectl rollout status deployment/time-service --timeout 60s 51 | kubectl get deploy 52 | -------------------------------------------------------------------------------- /dockerfile/java-hello/pom.xml: -------------------------------------------------------------------------------- 1 | 2 | 4 | 4.0.0 5 | 6 | hello-world 7 | jar 8 | Hello Java and SpringBoot 9 | 1.0.0 10 | 11 | 12 | org.springframework.boot 13 | spring-boot-starter-parent 14 | 2.1.4.RELEASE 15 | 16 | 17 | 18 | 1.8 19 | ./checkstyle.xml 20 | 21 | 22 | 23 | 24 | 25 | org.springframework.boot 26 | spring-boot-starter 27 | 28 | 29 | 30 | org.springframework.boot 31 | spring-boot-starter-jetty 32 | 33 | 34 | 35 | org.springframework 36 | spring-webmvc 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | com.google.cloud.tools 45 | jib-maven-plugin 46 | 3.1.4 47 | 48 | 49 | ivanporty/java-hello:0.1.0 50 | 51 | 52 | 53 | 54 | 55 | org.springframework.boot 56 | spring-boot-maven-plugin 57 | 58 | 59 | 60 | 61 | -------------------------------------------------------------------------------- /.github/workflows/svc-weekend-service.yml: -------------------------------------------------------------------------------- 1 | name: Сервисы K8s, weekend-service CI 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Проверка доступности time-service на основе DNS 21 | run: | 22 | # используем легковесный кластер kind для простых тестов 23 | kind create cluster 24 | cd time-service 25 | kubectl apply -f k8s/ 26 | kubectl rollout status deployment/time-service --timeout 60s 27 | # проверка доступа DNS через команды busybox (tail для постоянной работы) 28 | kubectl run busybox --image=busybox -- tail -f /dev/null 29 | kubectl wait --for=condition=ready pod/busybox 30 | kubectl exec busybox -- wget time-service:8080/time -O - 31 | kubectl exec busybox -- wget time-service.default.svc.cluster.local:8080/nanotime -O - 32 | # переменные окружения 33 | kubectl exec busybox -- env 34 | # выбор отсеков по меткам 35 | kubectl get pods --selector=app=time-service 36 | - name: Сборка и тесты сервиса weekend-service 37 | run: | 38 | cd weekend-service 39 | docker build . -t ivanporty/weekend-service:0.1.0 40 | # вместо jib - не отправляет образ в удаленный репозиторий 41 | ./gradlew jibDockerBuild --image=ivanporty/weekend-service:0.1.0 42 | # взаимодействие двух сервисов Kubernetes 43 | kubectl apply -f k8s/ 44 | kubectl rollout status deployment/weekend-service --timeout 60s 45 | kubectl get deploy 46 | kubectl get svc 47 | # вызов weekend-service через порт сервиса (фоновый режим, небольшое ожидание) 48 | kubectl port-forward deploy/weekend-service 5678 & 49 | sleep 5s 50 | curl 0.0.0.0:5678/weekend/Europe/Moscow 51 | curl 0.0.0.0:5678/weekend/Asia/Tokyo 52 | kubectl logs deploy/weekend-service 53 | - name: Проверка готовности сервиса weekend-service 54 | run: | 55 | cd weekend-service 56 | kubectl apply -f k8s/ 57 | kubectl rollout status deployment/weekend-service --timeout 60s 58 | # порт уже перенаправлен в предыдущем шаге 59 | curl 0.0.0.0:5678/ready 60 | kubectl logs deploy/weekend-service 61 | 62 | 63 | 64 | -------------------------------------------------------------------------------- /.github/workflows/k8s-resources.yml: -------------------------------------------------------------------------------- 1 | name: Ресурсы (pods/namespaces) K8s CI 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Требования к ресурсам для развертываний Deployment 21 | run: | 22 | cd weekend-service 23 | # используем легковесный кластер kind для простых тестов 24 | kind create cluster 25 | # развернем версию с объявленными ресурсами 26 | kubectl apply -f k8s/resources/ 27 | kubectl rollout status deployment/weekend-service --timeout 60s 28 | # сервис 29 | kubectl apply -f k8s/k8s-weekend-svc.yaml 30 | # weekend-service требует time-service 31 | kubectl apply -f ../time-service/k8s/ 32 | kubectl rollout status deployment/time-service --timeout 60s 33 | # проверим работоспособность сервиса 34 | kubectl port-forward service/weekend-service 5678 & 35 | sleep 5s 36 | curl -sS 0.0.0.0:5678/weekend/Europe/Moscow 37 | curl -sS 0.0.0.0:5678/weekend/Asia/Tokyo 38 | - name: Пространства имен Namespace 39 | run: | 40 | cd time-service 41 | # в данный момент time-service уже развернут, одинаковые объекты невозможны 42 | # || true позволяет игнорировать ошибку команды 43 | kubectl create -f k8s/k8s-time-deploy.yaml || true 44 | # пространство для разработчиков dev 45 | kubectl create namespace dev 46 | kubectl get namespaces 47 | # теперь можно развернуть такой же time-service в dev 48 | kubectl create -f k8s/k8s-time-deploy.yaml -n dev 49 | kubectl rollout status deployment/time-service --timeout 60s -n dev 50 | kubectl get deploy --namespace dev 51 | # описание пространства имен в манифесте на основе dry-run 52 | kubectl delete namespace dev 53 | kubectl create namespace dev --dry-run=client -o yaml > dev-namespace.yaml 54 | kubectl apply -f dev-namespace.yaml 55 | # ограничение ресурсов 56 | kubectl apply -f ../k8s-ops/dev-resource-quota.yaml -n dev 57 | kubectl describe namespace dev 58 | - name: Дополнительные контексты kubectl 59 | run: | 60 | kubectl config view 61 | kubectl config set-context kind-dev --cluster=kind-kind --user=kind-kind --namespace=dev 62 | kubectl config use-context kind-dev 63 | kubectl get deploy 64 | -------------------------------------------------------------------------------- /weekend-service/gradlew.bat: -------------------------------------------------------------------------------- 1 | @if "%DEBUG%" == "" @echo off 2 | @rem ########################################################################## 3 | @rem 4 | @rem Gradle startup script for Windows 5 | @rem 6 | @rem ########################################################################## 7 | 8 | @rem Set local scope for the variables with windows NT shell 9 | if "%OS%"=="Windows_NT" setlocal 10 | 11 | set DIRNAME=%~dp0 12 | if "%DIRNAME%" == "" set DIRNAME=. 13 | set APP_BASE_NAME=%~n0 14 | set APP_HOME=%DIRNAME% 15 | 16 | @rem Add default JVM options here. You can also use JAVA_OPTS and GRADLE_OPTS to pass JVM options to this script. 17 | set DEFAULT_JVM_OPTS= 18 | 19 | @rem Find java.exe 20 | if defined JAVA_HOME goto findJavaFromJavaHome 21 | 22 | set JAVA_EXE=java.exe 23 | %JAVA_EXE% -version >NUL 2>&1 24 | if "%ERRORLEVEL%" == "0" goto init 25 | 26 | echo. 27 | echo ERROR: JAVA_HOME is not set and no 'java' command could be found in your PATH. 28 | echo. 29 | echo Please set the JAVA_HOME variable in your environment to match the 30 | echo location of your Java installation. 31 | 32 | goto fail 33 | 34 | :findJavaFromJavaHome 35 | set JAVA_HOME=%JAVA_HOME:"=% 36 | set JAVA_EXE=%JAVA_HOME%/bin/java.exe 37 | 38 | if exist "%JAVA_EXE%" goto init 39 | 40 | echo. 41 | echo ERROR: JAVA_HOME is set to an invalid directory: %JAVA_HOME% 42 | echo. 43 | echo Please set the JAVA_HOME variable in your environment to match the 44 | echo location of your Java installation. 45 | 46 | goto fail 47 | 48 | :init 49 | @rem Get command-line arguments, handling Windows variants 50 | 51 | if not "%OS%" == "Windows_NT" goto win9xME_args 52 | 53 | :win9xME_args 54 | @rem Slurp the command line arguments. 55 | set CMD_LINE_ARGS= 56 | set _SKIP=2 57 | 58 | :win9xME_args_slurp 59 | if "x%~1" == "x" goto execute 60 | 61 | set CMD_LINE_ARGS=%* 62 | 63 | :execute 64 | @rem Setup the command line 65 | 66 | set CLASSPATH=%APP_HOME%\gradle\wrapper\gradle-wrapper.jar 67 | 68 | @rem Execute Gradle 69 | "%JAVA_EXE%" %DEFAULT_JVM_OPTS% %JAVA_OPTS% %GRADLE_OPTS% "-Dorg.gradle.appname=%APP_BASE_NAME%" -classpath "%CLASSPATH%" org.gradle.wrapper.GradleWrapperMain %CMD_LINE_ARGS% 70 | 71 | :end 72 | @rem End local scope for the variables with windows NT shell 73 | if "%ERRORLEVEL%"=="0" goto mainEnd 74 | 75 | :fail 76 | rem Set variable GRADLE_EXIT_CONSOLE if you need the _script_ return code instead of 77 | rem the _cmd.exe /c_ return code! 78 | if not "" == "%GRADLE_EXIT_CONSOLE%" exit 1 79 | exit /b 1 80 | 81 | :mainEnd 82 | if "%OS%"=="Windows_NT" endlocal 83 | 84 | :omega 85 | -------------------------------------------------------------------------------- /.github/workflows/time-service.yml: -------------------------------------------------------------------------------- 1 | name: time-service CI 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Сборка и тестирование микросервиса time-service (Docker image) 21 | run: | 22 | cd time-service 23 | docker build . -t time-service:0.1.0 24 | docker run --name time-service-test -d -p 8080:8080 time-service:0.1.0 25 | # проверка точек доступа 26 | curl localhost:8080/nanotime 27 | curl localhost:8080/time 28 | # остановка контейнера 29 | docker stop time-service-test 30 | - name: Запуск микросервиса time-service в локальном кластере minikube 31 | run: | 32 | cd time-service 33 | minikube start 34 | # локальные образы недоступны minikube по умолчанию в GH Actions 35 | minikube image load time-service:0.1.0 36 | # развертывание 37 | kubectl create deployment time-service --image time-service:0.1.0 38 | # ожидание запуска 39 | kubectl rollout status deployment/time-service --timeout 60s 40 | kubectl get pods -o wide 41 | # имя отсека и его описание 42 | POD=$(kubectl get pod -l app=time-service -o jsonpath="{.items[0].metadata.name}") 43 | kubectl describe pod $POD 44 | # вариант отладки 45 | kubectl get events 46 | - name: Проверка сервисов микросервиса time-service в локальном кластере minikube 47 | run: | 48 | kubectl expose deployment time-service --port=8080 --type=NodePort 49 | kubectl get services 50 | # получение локального URL - вызывать не будем, так как доступ сильно разнится от реализации 51 | minikube service --url time-service 52 | # переадресация на порт 9999 (фоновый режим, небольшое ожидание) 53 | kubectl port-forward service/time-service 9999:8080 & 54 | sleep 5s 55 | curl localhost:9999/time 56 | - name: Проверка журналов микросервиса time-service 57 | run: | 58 | kubectl logs deployment/time-service 59 | - name: Масштабирование микросервиса time-service 60 | run: | 61 | kubectl scale --replicas=3 deployment/time-service 62 | # ожидание запуска 63 | kubectl rollout status deployment/time-service --timeout 60s 64 | kubectl get pods -o wide 65 | # авто-масштабирование 66 | minikube addons enable metrics-server 67 | kubectl autoscale deployment/time-service --min=1 --max=3 --cpu-percent=80 68 | - name: Удаление развертывания и сервиса микросервиса time-service 69 | run: | 70 | kubectl delete deployment/time-service 71 | kubectl delete service/time-service 72 | -------------------------------------------------------------------------------- /.github/workflows/k8s-labels.yml: -------------------------------------------------------------------------------- 1 | name: Метки и аннотации K8s CI 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Канареечное развертывание на основе меток и множества экземпляров 21 | run: | 22 | cd time-service 23 | # используем легковесный кластер kind для простых тестов 24 | kind create cluster 25 | # новая версия time-service - заново собирать не обязательно, так как сборка проверяется в time-service CI 26 | # docker build . -t time-service:0.2.0 27 | # развертывание time-service, в том числе канареечный 28 | kubectl apply -f k8s/ 29 | kubectl apply -f k8s/canary/ 30 | # ожидание запуска 31 | kubectl rollout status deployment/time-service --timeout 60s 32 | kubectl rollout status deployment/time-service-canary --timeout 60s 33 | # переадресация порта (фоновый режим, небольшое ожидание) 34 | kubectl port-forward service/time-service 8080 & 35 | sleep 5s 36 | # запрос сервиса 7 раз, вызывается или канареечный выпуск, или обычный (сетевое соединение стабильно) 37 | for i in {1..7} 38 | do 39 | curl -sS 0.0.0.0:8080/time; sleep 1; 40 | done 41 | - name: Сине-зеленое развертывание на основе меток 42 | run: | 43 | cd time-service 44 | # удалим предыдушие варианты time-service 45 | kubectl delete deploy/time-service 46 | kubectl delete svc/time-service 47 | kubectl apply -f k8s/blue-green/blue/ 48 | # ожидание запуска 49 | kubectl rollout status deployment/time-service --timeout 60s 50 | # зеленое развертывание 51 | kubectl apply -f k8s/blue-green/green/k8s-time-deploy-green.yaml 52 | kubectl rollout status deployment/time-service-green --timeout 60s 53 | # переадресация порта на свободный 8081 54 | kubectl port-forward service/time-service 8081:8080 & 55 | sleep 5s 56 | # текущая версия - синяя 57 | for i in {1..7} 58 | do 59 | curl -sS 0.0.0.0:8081/time; sleep 1; 60 | done 61 | # переключение на зеленую версию 62 | kubectl apply -f k8s/blue-green/green/k8s-time-svc-green.yaml 63 | # переадресация порта на свободный 8082 64 | kubectl port-forward service/time-service 8082:8080 & 65 | sleep 5s 66 | # теперь текущая версия - зеленая 67 | for i in {1..7} 68 | do 69 | curl -sS 0.0.0.0:8082/time; sleep 1; 70 | done 71 | # откат на синюю версию 72 | kubectl apply -f k8s/blue-green/blue/k8s-time-svc-blue.yaml 73 | # переадресация порта на свободный 8083 74 | kubectl port-forward service/time-service 8083:8080 & 75 | sleep 5s 76 | for i in {1..7} 77 | do 78 | curl -sS 0.0.0.0:8083/time; sleep 1; 79 | done 80 | - name: Вывод отсека из развертывания для отладки 81 | run: | 82 | POD=$(kubectl get pod -l app=time-service,release=canary -o jsonpath="{.items[0].metadata.name}") 83 | kubectl label pod $POD debug=true app- 84 | POD=$(kubectl get pod -l debug=true,release=canary -o jsonpath="{.items[0].metadata.name}") 85 | kubectl describe pod/$POD 86 | kubectl get pods 87 | -------------------------------------------------------------------------------- /.github/workflows/docker-image.yml: -------------------------------------------------------------------------------- 1 | name: Dockerfile CI 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Сборка helloworld Dockerfile 21 | run: docker build dockerfile/helloworld --file dockerfile/helloworld/Dockerfile --tag helloworld 22 | - name: Сборка helloworld-loop Dockerfile 23 | run: docker build dockerfile/helloworld-loop --file dockerfile/helloworld-loop/Dockerfile --tag helloworld-loop 24 | - name: Сборка Java Maven Hello Dockerfile и проверка успешного запуска веб-сервера Spring Boot 25 | run: | 26 | cd dockerfile/java-hello 27 | docker build . -t java-hello 28 | docker run --name java-hello-test -d -p 8080:8080 java-hello 29 | # ожидание запуска JVM и приложения 30 | sleep 5s 31 | curl localhost:8080 32 | docker stop java-hello-test 33 | - name: Многоступенчатая сборка Java Maven Hello Dockerfile и проверка успешного запуска веб-сервера Spring Boot 34 | run: | 35 | cd dockerfile/java-hello 36 | docker build . -f Dockerfile-multistage -t java-hello 37 | # проверка размера образа 38 | docker images | grep java-hello 39 | docker rm java-hello-test 40 | docker run --name java-hello-test -d -p 8080:8080 java-hello 41 | # ожидание запуска JVM и приложения 42 | sleep 5s 43 | curl localhost:8080 44 | docker stop java-hello-test 45 | - name: Сборка Go Hello Dockerfile и проверка успешного запуска веб-сервера Go 46 | run: | 47 | docker build dockerfile/go-hello --file dockerfile/go-hello/Dockerfile --tag go-hello 48 | docker run --name go-hello-test -d -p 8080:8080 go-hello 49 | curl localhost:8080 50 | docker stop go-hello-test 51 | - name: Многоступенчатая сборка Go Hello Dockerfile и проверка успешного запуска веб-сервера Go 52 | run: | 53 | cd dockerfile/go-hello-multistage 54 | docker build . -t go-hello 55 | # проверка размера образа 56 | docker images | grep go-hello 57 | docker rm go-hello-test 58 | docker run --name go-hello-test -d -p 8080:8080 go-hello 59 | curl localhost:8080 60 | docker stop go-hello-test 61 | - name: Сборка Node.js Hello Dockerfile и проверка успешного запуска веб-сервера Node 62 | run: | 63 | docker build dockerfile/nodejs-hello --file dockerfile/nodejs-hello/Dockerfile --tag nodejs-hello 64 | docker run --name nodejs-hello-test -d -p 3000:3000 nodejs-hello 65 | # сервер node запускается медленно, ожидание запуска 66 | sleep 2s 67 | curl localhost:3000 68 | docker stop nodejs-hello-test 69 | - name: Установка JDK 11 для использования Maven и Jib 70 | uses: actions/setup-java@v2 71 | with: 72 | java-version: '11' 73 | distribution: 'temurin' 74 | cache: maven 75 | - name: Cборка Java Maven Hello с помощью Jib и проверка успешного запуска веб-сервера Spring Boot 76 | run: | 77 | cd dockerfile/java-hello 78 | mvn clean compile jib:dockerBuild 79 | docker run --name java-jib-test -d -p 8080:8080 ivanporty/java-hello:0.1.0 80 | # ожидание запуска JVM и приложения 81 | sleep 5s 82 | curl localhost:8080 83 | docker stop java-jib-test 84 | -------------------------------------------------------------------------------- /.github/workflows/k8s-deployment.yml: -------------------------------------------------------------------------------- 1 | name: Развертывания (deployment) K8s CI 2 | 3 | on: 4 | push: 5 | branches: [ master ] 6 | pull_request: 7 | branches: [ master ] 8 | schedule: 9 | - cron: "15 7 * * *" 10 | workflow_dispatch: 11 | 12 | jobs: 13 | 14 | build: 15 | 16 | runs-on: ubuntu-latest 17 | 18 | steps: 19 | - uses: actions/checkout@v2 20 | - name: Обновление развертывания - переход на новую версию 21 | run: | 22 | cd time-service 23 | # используем легковесный кластер kind для простых тестов 24 | kind create cluster 25 | # развертывание time-service 0.1.0 26 | kubectl apply -f k8s/ 27 | # ожидание запуска 28 | kubectl rollout status deployment/time-service --timeout 60s 29 | # переадресация порта (фоновый режим, небольшое ожидание) 30 | kubectl port-forward service/time-service 8080 & 31 | PID=$! 32 | sleep 5s 33 | curl -sS 0.0.0.0:8080/time 34 | # надо отключить переадресацию во избежание ошибок при смене отсеков pod 35 | kill -9 $PID 36 | # обновление версии 37 | kubectl apply -f k8s/update 38 | kubectl rollout status deployment/time-service --timeout 60s 39 | # так как проверки готовности в сервисе нет, нужна небольшое ожидание 40 | sleep 5s 41 | # снова переадресация 42 | kubectl port-forward service/time-service 8080 & 43 | PID=$! 44 | sleep 5s 45 | # проверка нового формата 46 | curl -sS 0.0.0.0:8080/time 47 | # переадресация остается работать 48 | - name: История и откат развертываний 49 | run: | 50 | cd time-service 51 | kubectl rollout history deploy time-service 52 | # развернем сломанную версию 53 | kubectl apply -f k8s/update/broken 54 | # теперь развертывания ждать командой rollout status нельзя - оно сломано 55 | sleep 3s 56 | # сервис все равно работает, переадресация осталась с прошлого примера 57 | curl -sS 0.0.0.0:8080/time 58 | # отсеки, работаюшие и сломанные 59 | kubectl get pods 60 | # история содержит все три развертывания 61 | kubectl rollout history deploy time-service 62 | # откат на рабочую версию 63 | kubectl rollout undo deploy time-service 64 | kubectl rollout status deployment/time-service --timeout 60s 65 | # новая история 66 | kubectl rollout history deploy time-service 67 | # переадресация должна работать без перерыва так как отсеки остались теми же 68 | curl -sS 0.0.0.0:8080/time 69 | # проверим объекты ReplicaSet 70 | kubectl get replicasets 71 | - name: Демонстрация стратегии rolling update 72 | run: | 73 | cd time-service 74 | # удалим старое развертывание 75 | kubectl delete deploy/time-service 76 | # ожидание удаления, использовать команду rollout после удаления нельзя 77 | sleep 3s 78 | # развертывание версии 0.1.0 79 | kubectl apply -f k8s/update/rolling-0.1.0 80 | kubectl rollout status deployment/time-service --timeout 60s 81 | # развертывание версии 0.2.0 82 | kubectl apply -f k8s/update/rolling-0.2.0 83 | # проверка статуса отсеков pods 84 | for i in {1..7} 85 | do 86 | kubectl get pods; sleep 1; 87 | done 88 | - name: Автоматическое масштабирование 89 | run: | 90 | cd time-service 91 | kubectl autoscale deployment/time-service --min=1 --max=3 --cpu-percent=80 --dry-run=client -o yaml 92 | # kind не поддерживает autoscale, но должен принять объект HPA 93 | kubectl apply -f k8s/autoscale/ 94 | -------------------------------------------------------------------------------- /weekend-service/src/main/java/com/porty/k8s/WeekendService.java: -------------------------------------------------------------------------------- 1 | package com.porty.k8s; 2 | 3 | import com.google.gson.Gson; 4 | import org.slf4j.Logger; 5 | import org.slf4j.LoggerFactory; 6 | 7 | import java.io.InputStreamReader; 8 | import java.net.URI; 9 | import java.time.DayOfWeek; 10 | import java.time.Instant; 11 | import java.time.ZoneId; 12 | import java.util.EnumSet; 13 | import java.util.concurrent.atomic.AtomicBoolean; 14 | 15 | import static spark.Spark.*; 16 | 17 | /** 18 | * Простой сервис на основе Spark/Java, запрашивающий время у микросервиса 19 | * time-service и возвращающий результат - выходной ли день в указанной временной зоне, 20 | * и какой именно это выходной. 21 | */ 22 | public class WeekendService { 23 | 24 | private static Logger logger = 25 | LoggerFactory.getLogger(WeekendService.class); 26 | 27 | private static AtomicBoolean ready = new AtomicBoolean(false); 28 | 29 | public static void main(String[] args) { 30 | port(5678); 31 | 32 | Gson gson = new Gson(); 33 | 34 | // страна и город для выяснения выходного дня кодируется прямо в пути 35 | // запроса HTTP 36 | // пример: /weekend/Europe/Moscow 37 | get("/weekend/:country/:city", (req, res) -> { 38 | ZoneId timeZoneId = 39 | ZoneId.of(req.params("country") + "/" + req.params("city")); 40 | logger.info("Запрошен статус выходного дня для зоны {}", 41 | timeZoneId); 42 | 43 | // запрашиваем время от вспомогательного сервиса и преобразуем 44 | // его в объект c данными 45 | TimeServiceResponse timeServiceResponse = gson.fromJson( 46 | new InputStreamReader( 47 | URI.create("http://time-service:8080/nanotime"). 48 | toURL().openStream()), 49 | TimeServiceResponse.class); 50 | // используем пакет java.time для получения данных о текущем дне 51 | Instant millisTime = Instant.ofEpochMilli( 52 | Long.parseLong(timeServiceResponse.getNanoTime()) / 1000000); 53 | DayOfWeek dayOfWeek = millisTime.atZone(timeZoneId).getDayOfWeek(); 54 | boolean isWeekend = EnumSet.of(DayOfWeek.SATURDAY, DayOfWeek.SUNDAY) 55 | .contains(dayOfWeek); 56 | 57 | return new TimeZoneReply(isWeekend, dayOfWeek.name()); 58 | }, gson::toJson); 59 | 60 | // поддержка сигнала о готовности сервиса к работе. Используем 61 | // встроенный в библиотеку Spark 62 | // метод для ожидания готовности сервера к работе, ожидая его в 63 | // отдельном потоке Thread. 64 | get("/ready", (req, res) -> { 65 | if (ready.get()) { 66 | logger.info("Запрос проверки готовности, сервер готов."); 67 | return "Готов!"; 68 | } else { 69 | logger.warn("Запрос проверки готовности, сервер не готов."); 70 | throw new IllegalStateException("Не готов!"); 71 | } 72 | }); 73 | // ожидаем готовности в параллельном потоке. 74 | new Thread(() -> { 75 | awaitInitialization(); 76 | ready.set(true); 77 | }).start(); 78 | } 79 | 80 | // стандартный класс с данными для преобразования результата сервиса в JSON 81 | static class TimeZoneReply { 82 | 83 | private boolean weekend; 84 | private String day; 85 | 86 | TimeZoneReply(boolean weekend, String day) { 87 | this.weekend = weekend; 88 | this.day = day; 89 | } 90 | 91 | public boolean isWeekend() { 92 | return weekend; 93 | } 94 | 95 | public String getDay() { 96 | return day; 97 | } 98 | } 99 | 100 | // стандартный класс с данными для получения данных JSON от сервиса 101 | // time-service 102 | static class TimeServiceResponse { 103 | 104 | private String time; 105 | private String nanoTime; 106 | 107 | public String getTime() { 108 | return time; 109 | } 110 | 111 | public void setTime(String time) { 112 | this.time = time; 113 | } 114 | 115 | public String getNanoTime() { 116 | return nanoTime; 117 | } 118 | 119 | public void setNanoTime(String nanoTime) { 120 | this.nanoTime = nanoTime; 121 | } 122 | } 123 | } 124 | -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | ## Примеры Dockerfile, Jib, код микросервисов на Go и Java, манифесты Kubernetes для книги "Программирование Cloud Native. Микросервисы, Docker и Kubernetes" 2 | 3 | [Сайт книги "Программирование Cloud Native. Микросервисы, Docker и Kubernetes"](https://ipsoftware.ru/books/cloud-k8s/) 4 | 5 | В этом репозитории содержится код примеров книги, манифесты Kubernetes, команды Dockerfile. Команды, запускаемые в консоли (такие как вызовы `kubectl`), сохранены как часть системы непрерывной сборки GitHub Actions (конфигурация находится в `.github/workflows`, посмотреть запуски тестов - вкладка `Actions`) 6 | 7 | ### Непрерывная сборка (CI) кода и скриптов книги 8 | 9 | Все команды, вызовы `kubectl`, проверка результатов работы, код микросервисов, и упаковка в контейнеры запускаются ежедневно как часть непрерывной сборки (continuous integration, CI), с помощью GitHub Actions. Нажмите на ссылки ниже, чтобы увидеть результаты последних сборок и сам код тестирования для всех команд и примеров, используемых в книге: 10 | 11 | * Cборка простых образов контейнеров Docker и их тестирование в терминале (главы 3 и 4) 12 | * [![Dockerfile CI](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/docker-image.yml/badge.svg?branch=master)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/docker-image.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/docker-image.yml) 13 | 14 | * Начало работы с Kubernetes, minikube, kubectl (глава 5) 15 | * [![Настройка кластера K8s](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/cluster-setup.yml/badge.svg)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/cluster-setup.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/cluster-setup.yml) 16 | 17 | * Код микросервиса `time-service`, сборка в образ контейнера (image), запуск, развертывание в кластере minikube, доступ в кластер, масштабирование, и проверка результатов (глава 5) 18 | * [![time-service CI](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/time-service.yml/badge.svg)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/time-service.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/time-service.yml) 19 | 20 | * Непрерывная сборка и проверка объектов YAML для микросервиса time-service в локальном кластере (Глава 6) 21 | * [![Объекты YAML K8s CI](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-objects.yml/badge.svg)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-objects.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/k8s-objects.yml) 22 | 23 | * Cборка и проверка микросервиса `weekend-service`, развертывание в локальном кластере, взаимодействие 2х микросервисов (Глава 7) 24 | * [![Сервисы K8s, weekend-service CI](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/svc-weekend-service.yml/badge.svg)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/svc-weekend-service.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/svc-weekend-service.yml) 25 | 26 | * Метки и аннотации Kubernetes. “Канарейки” (Глава 8) 27 | * [![Метки и аннотации K8s CI](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-labels.yml/badge.svg)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-labels.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/k8s-labels.yml) 28 | 29 | * Развертывания Deployment, стратегии развертывания (Глава 9) 30 | * [![Развертывания (deployment) K8s CI](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-deployment.yml/badge.svg)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-deployment.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/k8s-deployment.yml) 31 | 32 | * Ресурсы Kubernetes - ресурсы Deployment, пространства имен Namespace (Глава 10) 33 | * [![Ресурсы (pods/namespaces) K8s CI](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-resources.yml/badge.svg)](https://github.com/ivanporty/cloud-docker-k8s/actions/workflows/k8s-resources.yml) [(скрипт)](https://github.com/ivanporty/cloud-docker-k8s/blob/master/.github/workflows/k8s-resources.yml) 34 | -------------------------------------------------------------------------------- /weekend-service/gradlew: -------------------------------------------------------------------------------- 1 | #!/usr/bin/env sh 2 | 3 | ############################################################################## 4 | ## 5 | ## Gradle start up script for UN*X 6 | ## 7 | ############################################################################## 8 | 9 | # Attempt to set APP_HOME 10 | # Resolve links: $0 may be a link 11 | PRG="$0" 12 | # Need this for relative symlinks. 13 | while [ -h "$PRG" ] ; do 14 | ls=`ls -ld "$PRG"` 15 | link=`expr "$ls" : '.*-> \(.*\)$'` 16 | if expr "$link" : '/.*' > /dev/null; then 17 | PRG="$link" 18 | else 19 | PRG=`dirname "$PRG"`"/$link" 20 | fi 21 | done 22 | SAVED="`pwd`" 23 | cd "`dirname \"$PRG\"`/" >/dev/null 24 | APP_HOME="`pwd -P`" 25 | cd "$SAVED" >/dev/null 26 | 27 | APP_NAME="Gradle" 28 | APP_BASE_NAME=`basename "$0"` 29 | 30 | # Add default JVM options here. You can also use JAVA_OPTS and GRADLE_OPTS to pass JVM options to this script. 31 | DEFAULT_JVM_OPTS="" 32 | 33 | # Use the maximum available, or set MAX_FD != -1 to use that value. 34 | MAX_FD="maximum" 35 | 36 | warn () { 37 | echo "$*" 38 | } 39 | 40 | die () { 41 | echo 42 | echo "$*" 43 | echo 44 | exit 1 45 | } 46 | 47 | # OS specific support (must be 'true' or 'false'). 48 | cygwin=false 49 | msys=false 50 | darwin=false 51 | nonstop=false 52 | case "`uname`" in 53 | CYGWIN* ) 54 | cygwin=true 55 | ;; 56 | Darwin* ) 57 | darwin=true 58 | ;; 59 | MINGW* ) 60 | msys=true 61 | ;; 62 | NONSTOP* ) 63 | nonstop=true 64 | ;; 65 | esac 66 | 67 | CLASSPATH=$APP_HOME/gradle/wrapper/gradle-wrapper.jar 68 | 69 | # Determine the Java command to use to start the JVM. 70 | if [ -n "$JAVA_HOME" ] ; then 71 | if [ -x "$JAVA_HOME/jre/sh/java" ] ; then 72 | # IBM's JDK on AIX uses strange locations for the executables 73 | JAVACMD="$JAVA_HOME/jre/sh/java" 74 | else 75 | JAVACMD="$JAVA_HOME/bin/java" 76 | fi 77 | if [ ! -x "$JAVACMD" ] ; then 78 | die "ERROR: JAVA_HOME is set to an invalid directory: $JAVA_HOME 79 | 80 | Please set the JAVA_HOME variable in your environment to match the 81 | location of your Java installation." 82 | fi 83 | else 84 | JAVACMD="java" 85 | which java >/dev/null 2>&1 || die "ERROR: JAVA_HOME is not set and no 'java' command could be found in your PATH. 86 | 87 | Please set the JAVA_HOME variable in your environment to match the 88 | location of your Java installation." 89 | fi 90 | 91 | # Increase the maximum file descriptors if we can. 92 | if [ "$cygwin" = "false" -a "$darwin" = "false" -a "$nonstop" = "false" ] ; then 93 | MAX_FD_LIMIT=`ulimit -H -n` 94 | if [ $? -eq 0 ] ; then 95 | if [ "$MAX_FD" = "maximum" -o "$MAX_FD" = "max" ] ; then 96 | MAX_FD="$MAX_FD_LIMIT" 97 | fi 98 | ulimit -n $MAX_FD 99 | if [ $? -ne 0 ] ; then 100 | warn "Could not set maximum file descriptor limit: $MAX_FD" 101 | fi 102 | else 103 | warn "Could not query maximum file descriptor limit: $MAX_FD_LIMIT" 104 | fi 105 | fi 106 | 107 | # For Darwin, add options to specify how the application appears in the dock 108 | if $darwin; then 109 | GRADLE_OPTS="$GRADLE_OPTS \"-Xdock:name=$APP_NAME\" \"-Xdock:icon=$APP_HOME/media/gradle.icns\"" 110 | fi 111 | 112 | # For Cygwin, switch paths to Windows format before running java 113 | if $cygwin ; then 114 | APP_HOME=`cygpath --path --mixed "$APP_HOME"` 115 | CLASSPATH=`cygpath --path --mixed "$CLASSPATH"` 116 | JAVACMD=`cygpath --unix "$JAVACMD"` 117 | 118 | # We build the pattern for arguments to be converted via cygpath 119 | ROOTDIRSRAW=`find -L / -maxdepth 1 -mindepth 1 -type d 2>/dev/null` 120 | SEP="" 121 | for dir in $ROOTDIRSRAW ; do 122 | ROOTDIRS="$ROOTDIRS$SEP$dir" 123 | SEP="|" 124 | done 125 | OURCYGPATTERN="(^($ROOTDIRS))" 126 | # Add a user-defined pattern to the cygpath arguments 127 | if [ "$GRADLE_CYGPATTERN" != "" ] ; then 128 | OURCYGPATTERN="$OURCYGPATTERN|($GRADLE_CYGPATTERN)" 129 | fi 130 | # Now convert the arguments - kludge to limit ourselves to /bin/sh 131 | i=0 132 | for arg in "$@" ; do 133 | CHECK=`echo "$arg"|egrep -c "$OURCYGPATTERN" -` 134 | CHECK2=`echo "$arg"|egrep -c "^-"` ### Determine if an option 135 | 136 | if [ $CHECK -ne 0 ] && [ $CHECK2 -eq 0 ] ; then ### Added a condition 137 | eval `echo args$i`=`cygpath --path --ignore --mixed "$arg"` 138 | else 139 | eval `echo args$i`="\"$arg\"" 140 | fi 141 | i=$((i+1)) 142 | done 143 | case $i in 144 | (0) set -- ;; 145 | (1) set -- "$args0" ;; 146 | (2) set -- "$args0" "$args1" ;; 147 | (3) set -- "$args0" "$args1" "$args2" ;; 148 | (4) set -- "$args0" "$args1" "$args2" "$args3" ;; 149 | (5) set -- "$args0" "$args1" "$args2" "$args3" "$args4" ;; 150 | (6) set -- "$args0" "$args1" "$args2" "$args3" "$args4" "$args5" ;; 151 | (7) set -- "$args0" "$args1" "$args2" "$args3" "$args4" "$args5" "$args6" ;; 152 | (8) set -- "$args0" "$args1" "$args2" "$args3" "$args4" "$args5" "$args6" "$args7" ;; 153 | (9) set -- "$args0" "$args1" "$args2" "$args3" "$args4" "$args5" "$args6" "$args7" "$args8" ;; 154 | esac 155 | fi 156 | 157 | # Escape application args 158 | save () { 159 | for i do printf %s\\n "$i" | sed "s/'/'\\\\''/g;1s/^/'/;\$s/\$/' \\\\/" ; done 160 | echo " " 161 | } 162 | APP_ARGS=$(save "$@") 163 | 164 | # Collect all arguments for the java command, following the shell quoting and substitution rules 165 | eval set -- $DEFAULT_JVM_OPTS $JAVA_OPTS $GRADLE_OPTS "\"-Dorg.gradle.appname=$APP_BASE_NAME\"" -classpath "\"$CLASSPATH\"" org.gradle.wrapper.GradleWrapperMain "$APP_ARGS" 166 | 167 | # by default we should be in the correct project dir, but when run from Finder on Mac, the cwd is wrong 168 | if [ "$(uname)" = "Darwin" ] && [ "$HOME" = "$PWD" ]; then 169 | cd "$(dirname "$0")" 170 | fi 171 | 172 | exec "$JAVACMD" "$@" 173 | --------------------------------------------------------------------------------