大家好,我在EC2实例上设置了一个SFTP服务器,以接收需要发送3个文件的远程客户端的文件,客户端每天多次连接,每次传输3个文件,这些文件保持原名但内容不同。如果同时连接的客户太多,这种方法就无法控制,我担心会出现瓶颈,因此一直在寻找其他解决方案(某种类型的“分布式文件传输”)。这时我发现AWS S3是分布式的,于是想知道是否可以像下面这样做:
1. 创建名为“incoming-files”的存储桶。 2. 在该存储桶中创建多个文件夹,一个文件夹对应一个客户。 3. 设置文件传输机制(我认为必须使用S3的SDK)。 4. 为每个客户提供客户端应用程序,以便他们可以将文件上传到其特定文件夹中。
在SFTP上,最后一点很容易,因为您可以为每个用户设置“根”文件夹,这样当用户连接到服务器时,它会自动落在适当的文件夹中。不确定在S3上是否可以解决这类问题。此外,文件传输机制不仅需要提供访问存储桶的凭据,还需要提供访问文件夹的“子凭据”。
我一直在研究S3,但无法确定这个想法是否可行和实用。我原始的SFTP解决方案的另一个限制是,按定义,SFTP服务器是单点故障,我很高兴避免这种情况。如果有人能为此提供一些帮助,我将非常感激(顺便说一下,其他解决方案也可以)。
请注意,我正在尝试完全消除SFTP服务器,而不是将S3存储桶挂载为SFTP服务器的“根文件夹”。
谢谢。
1. 创建名为“incoming-files”的存储桶。 2. 在该存储桶中创建多个文件夹,一个文件夹对应一个客户。 3. 设置文件传输机制(我认为必须使用S3的SDK)。 4. 为每个客户提供客户端应用程序,以便他们可以将文件上传到其特定文件夹中。
在SFTP上,最后一点很容易,因为您可以为每个用户设置“根”文件夹,这样当用户连接到服务器时,它会自动落在适当的文件夹中。不确定在S3上是否可以解决这类问题。此外,文件传输机制不仅需要提供访问存储桶的凭据,还需要提供访问文件夹的“子凭据”。
我一直在研究S3,但无法确定这个想法是否可行和实用。我原始的SFTP解决方案的另一个限制是,按定义,SFTP服务器是单点故障,我很高兴避免这种情况。如果有人能为此提供一些帮助,我将非常感激(顺便说一下,其他解决方案也可以)。
请注意,我正在尝试完全消除SFTP服务器,而不是将S3存储桶挂载为SFTP服务器的“根文件夹”。
谢谢。