使用 GitLab CI/CD 和 Terraform 实现 Lambda 以进行 SFTP 集成、Go 中的 S Databricks
来源:dev.to
时间:2024-11-22 08:19:05 485浏览 收藏
亲爱的编程学习爱好者,如果你点开了这篇文章,说明你对《使用 GitLab CI/CD 和 Terraform 实现 Lambda 以进行 SFTP 集成、Go 中的 S Databricks》很感兴趣。本篇文章就来给大家详细解析一下,主要介绍一下,希望所有认真读完的童鞋们,都有实质性的提高。

通过 databricks 中的流程自动化降低成本
我的客户需要降低在 databricks 上运行的流程的成本。 databricks 负责的功能之一是从各种 sftp 收集文件,解压缩它们并将它们放入数据湖中。
自动化数据工作流程是现代数据工程的重要组成部分。在本文中,我们将探讨如何使用 gitlab ci/cd 和 terraform 创建 aws lambda 函数,该函数允许 go 应用程序连接到 sftp 服务器、收集文件、将其存储在 amazon s3 中,并最终在 databricks 上触发作业。这种端到端的流程对于依赖高效数据集成和自动化的系统至关重要。
阅读本文需要什么
- 具有项目存储库的 gitlab 帐户。
- 有权创建 lambda、s3 和 iam 资源的 aws 账户。
- 具有创建和运行作业权限的 databricks 帐户。
- go、terraform 和 gitlab ci/cd 的基础知识。
第 1 步:准备 go 应用程序
首先创建一个 go 应用程序,该应用程序将连接到 sftp 服务器来收集文件。使用 github.com/pkg/sftp 等软件包建立 sftp 连接,使用 github.com/aws/aws-sdk-go 与 aws s3 服务交互。
package main
import (
"fmt"
"log"
"os"
"path/filepath"
"github.com/pkg/sftp"
"golang.org/x/crypto/ssh"
"github.com/aws/aws-sdk-go/aws"
"github.com/aws/aws-sdk-go/aws/session"
"github.com/aws/aws-sdk-go/service/s3/s3manager"
)
func main() {
// configuração do cliente sftp
user := "seu_usuario_sftp"
pass := "sua_senha_sftp"
host := "endereco_sftp:22"
config := &ssh.clientconfig{
user: user,
auth: []ssh.authmethod{
ssh.password(pass),
},
hostkeycallback: ssh.insecureignorehostkey(),
}
// conectar ao servidor sftp
conn, err := ssh.dial("tcp", host, config)
if err != nil {
log.fatal(err)
}
client, err := sftp.newclient(conn)
if err != nil {
log.fatal(err)
}
defer client.close()
// baixar arquivos do sftp
remotefilepath := "/path/to/remote/file"
localdir := "/path/to/local/dir"
localfilepath := filepath.join(localdir, filepath.base(remotefilepath))
dstfile, err := os.create(localfilepath)
if err != nil {
log.fatal(err)
}
defer dstfile.close()
srcfile, err := client.open(remotefilepath)
if err != nil {
log.fatal(err)
}
defer srcfile.close()
if _, err := srcfile.writeto(dstfile); err != nil {
log.fatal(err)
}
fmt.println("arquivo baixado com sucesso:", localfilepath)
// configuração do cliente s3
sess := session.must(session.newsession(&aws.config{
region: aws.string("us-west-2"),
}))
uploader := s3manager.newuploader(sess)
// carregar arquivo para o s3
file, err := os.open(localfilepath)
if err != nil {
log.fatal(err)
}
defer file.close()
_, err = uploader.upload(&s3manager.uploadinput{
bucket: aws.string("seu-bucket-s3"),
key: aws.string(filepath.base(localfilepath)),
body: file,
})
if err != nil {
log.fatal("falha ao carregar arquivo para o s3:", err)
}
fmt.println("arquivo carregado com sucesso no s3")
}
步骤 2:配置 terraform
terraform 将用于在 aws 上配置 lambda 函数和所需资源。使用创建 lambda 函数、iam 策略和 s3 存储桶所需的配置创建 main.tf 文件。
provider "aws" {
region = "us-east-1"
}
resource "aws_iam_role" "lambda_execution_role" {
name = "lambda_execution_role"
assume_role_policy = jsonencode({
version = "2012-10-17",
statement = [
{
action = "sts:assumerole",
effect = "allow",
principal = {
service = "lambda.amazonaws.com"
},
},
]
})
}
resource "aws_iam_policy" "lambda_policy" {
name = "lambda_policy"
description = "a policy that allows a lambda function to access s3 and sftp resources"
policy = jsonencode({
version = "2012-10-17",
statement = [
{
action = [
"s3:listbucket",
"s3:getobject",
"s3:putobject",
],
effect = "allow",
resource = [
"arn:aws:s3:::seu-bucket-s3",
"arn:aws:s3:::seu-bucket-s3/*",
],
},
]
})
}
resource "aws_iam_role_policy_attachment" "lambda_policy_attachment" {
role = aws_iam_role.lambda_execution_role.name
policy_arn = aws_iam_policy.lambda_policy.arn
}
resource "aws_lambda_function" "sftp_lambda" {
function_name = "sftp_lambda_function"
s3_bucket = "seu-bucket-s3-com-codigo-lambda"
s3_key = "sftp-lambda.zip"
handler = "main"
runtime = "go1.x"
role = aws_iam_role.lambda_execution_role.arn
environment {
variables = {
sftp_host = "endereco_sftp",
sftp_user = "seu_usuario_sftp",
sftp_password = "sua_senha_sftp",
s3_bucket = "seu-bucket-s3",
}
}
}
resource "aws_s3_bucket" "s3_bucket" {
bucket = "seu-bucket-s3"
acl = "private"
}
步骤 3:配置 gitlab ci/cd
在 gitlab 中,在 .gitlab-ci.yml 文件中定义 ci/cd 管道。该管道应包括测试 go 应用程序的步骤、运行 terraform 来配置基础设施以及必要时的清理步骤。
stages:
- test
- build
- deploy
variables:
s3_bucket: "seu-bucket-s3"
aws_default_region: "us-east-1"
tf_version: "1.0.0"
before_script:
- 'which ssh-agent || ( apt-get update -y && apt-get install openssh-client -y )'
- eval $(ssh-agent -s)
- echo "$private_key" | tr -d '\r' | ssh-add -
- mkdir -p ~/.ssh
- chmod 700 ~/.ssh
- ssh-keyscan -h 'endereco_sftp' >> ~/.ssh/known_hosts
test:
stage: test
image: golang:1.18
script:
- go test -v ./...
build:
stage: build
image: golang:1.18
script:
- go build -o myapp
- zip -r sftp-lambda.zip myapp
artifacts:
paths:
- sftp-lambda.zip
only:
- master
deploy:
stage: deploy
image: hashicorp/terraform:$tf_version
script:
- terraform init
- terraform apply -auto-approve
only:
- master
environment:
name: production
第 4 步:与 databricks 集成
将文件上传到 s3 后,lambda 函数必须触发 databricks 中的作业。这可以使用 databricks api 启动现有作业来完成。
package main
import (
"bytes"
"encoding/json"
"fmt"
"net/http"
)
// estrutura para a requisição de iniciar um job no databricks
type databricksjobrequest struct {
jobid int `json:"job_id"`
}
// função para acionar um job no databricks
func triggerdatabricksjob(databricksinstance string, token string, jobid int) error {
url := fmt.sprintf("https://%s/api/2.0/jobs/run-now", databricksinstance)
requestbody, _ := json.marshal(databricksjobrequest{jobid: jobid})
req, err := http.newrequest("post", url, bytes.newbuffer(requestbody))
if err != nil {
return err
}
req.header.set("content-type", "application/json")
req.header.set("authorization", fmt.sprintf("bearer %s", token))
client := &http.client{}
resp, err := client.do(req)
if err != nil {
return err
}
defer resp.body.close()
if resp.statuscode != http.statusok {
return fmt.errorf("failed to trigger databricks job, status code: %d", resp.statuscode)
}
return nil
}
func main() {
// ... (código existente para conectar ao sftp e carregar no s3)
// substitua pelos seus valores reais
databricksinstance := "your-databricks-instance"
databrickstoken := "your-databricks-token"
databricksjobid := 123 // id do job que você deseja acionar
// acionar o job no databricks após o upload para o s3
err := triggerdatabricksjob(databricksinstance, databrickstoken, databricksjobid)
if err != nil {
log.fatal("erro ao acionar o job do databricks:", err)
}
fmt.println("job do databricks acionado com sucesso")
}
第 5 步:运行管道
将代码推送到 gitlab 存储库以供管道运行。检查所有步骤是否已成功完成,lambda 函数是否正常运行并与 s3 和 databricks 正确交互。
一旦您拥有完整的代码并配置了 .gitlab-ci.yml 文件,您就可以按照以下步骤运行管道:
- 将您的代码推送到 gitlab 存储库:
git add . git commit -m "adiciona função lambda para integração sftp, s3 e databricks" git push origin master
git add . git commit -m "adiciona função lambda para integração sftp, s3 e databricks" git push origin master ´´´
- gitlab ci/cd 将检测新的提交并自动启动管道。
- 通过访问存储库的 ci/cd 部分来跟踪 gitlab 中管道的执行。
- 如果所有阶段都成功,您的 lambda 函数将被部署并可供使用。
请记住,您需要在 gitlab ci/cd 中配置环境变量来存储敏感信息,例如访问令牌和私钥。这可以在 gitlab 项目的“设置”>“ci/cd”>“变量”部分中完成。
此外,请确保 databricks 令牌具有触发作业所需的权限,并且该作业具有提供的 id。
结论
使用 gitlab ci/cd、terraform 和 aws lambda 等工具可以显着简化自动化数据工程任务。通过遵循本文中概述的步骤,您可以创建一个强大的系统,自动执行 sftp、s3 和 databricks 之间的数据收集和集成,所有这些都具有 go 的效率和简单性。通过这种方法,您将有能力解决以下问题。大规模数据集成的挑战。
我的联系人:
领英 - airton lira junior
imasters - airton lira junior
aws #lambda #terraform #gitlab #ci_cd #go #databricks #dataengineering #automation
今天关于《使用 GitLab CI/CD 和 Terraform 实现 Lambda 以进行 SFTP 集成、Go 中的 S Databricks》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!
-
505 收藏
-
503 收藏
-
502 收藏
-
502 收藏
-
502 收藏
-
118 收藏
-
189 收藏
-
232 收藏
-
269 收藏
-
269 收藏
-
316 收藏
-
122 收藏
-
456 收藏
-
330 收藏
-
181 收藏
-
299 收藏
-
350 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习