必看!S3File Sink Connector 使用文档
S3File 是一个用于管理 Amazon S3(Simple Storage Service)的 Python 模块。当前,Apache SeaTunnel 已经支持 S3File Sink Connector,为了更好地使用这个 Connector,有必要看一下这篇使用文档指南。

S3File 是一个用于管理 Amazon S3(Simple Storage Service)的 Python 模块。当前,Apache 已经支持 S3File Sink Connector,为了更好地使用这个 Connector,有必要看一下这篇使用文档指南。
如果您使用的是 Spark/Flink,在使用此连接器之前,必须确保您的 Spark/Flink 集群已经集成了 Hadoop。Hadoop 2.x 版本已通过测试。如果您使用的是 SeaTunnel Engine,它会在您下载和安装 SeaTunnel Engine 时自动集成 Hadoop JAR 包。您可以在 ${SEATUNNEL_HOME}/lib
目录下确认这个 JAR 包是否存在。默认情况下,我们使用 2PC 提交来确保 "仅一次语义"。选项
| 类型 | 必需 | 默认值 | 备注 |
| | | |
|
| | | |
|
| | | |
|
fs.s3a.aws.credentials.provider | | | com.amazonaws.auth.InstanceProfileCredentialsProvider |
|
| | | | 仅在 fs.s3a.aws.credentials.provider = org.apache.hadoop.fs.s3a.SimpleAWSCredentialsProvider 时使用 |
| | | | 仅在 fs.s3a.aws.credentials.provider = org.apache.hadoop.fs.s3a.SimpleAWSCredentialsProvider 时使用 |
| | | | |
| | | | 仅在 custom_filename 为 true 时使用 |
| | | | 仅在 custom_filename 为 true 时使用 |
| | | |
|
| | | |