-
Thanks for sharing. Do you have a working exemple configuration file for s3cmd? i found someting on github, but i have to adapt it to una
[default] # Cheia de acces pentru autentificarea la serviciul de stocare access_key = # Token de acces pentru autentificarea suplimentară (dacă este necesar) access_token = # Extensii de fișiere pentru care se aplică codificarea add_encoding_exts = # Header-uri suplimentare care pot fi adăugate la cereri add_headers = # Locația bucket-ului în AWS (sau alt serviciu compatibil S3) bucket_location = us-east-1 # Fișierul cu certificatele CA pentru validarea SSL ca_certs_file = # Fișier utilizat pentru a stoca datele cache cache_file = # Verifică certificatele SSL la conectare check_ssl_certificate = True # Verifică numele gazdei în certificatele SSL check_ssl_hostname = True # Host-ul CloudFront pentru distribuirea conținutului cloudfront_host = cloudfront.amazonaws.com # Tipul MIME implicit pentru fișiere default_mime_type = binary/octet-stream # Întârzierea actualizărilor (True pentru a aștepta) delay_updates = False # Șterge fișierele după transfer (True pentru a activa) delete_after = False # Șterge fișierele după ce au fost preluate delete_after_fetch = False # Șterge fișierele care nu mai sunt în sursa originală delete_removed = False # Setează dacă operațiunile de scriere trebuie să fie efectuate în mod secvențial dry_run = False # Activează încărcarea multipart pentru fișiere mari enable_multipart = True # Encoding-ul pentru fișiere encoding = UTF-8 # Activează sau dezactivează criptarea pentru fișiere encrypt = False # Data de expirare pentru fișiere (dacă este setată) expiry_date = # Numărul de zile până când fișierele expiră expiry_days = # Prefixul pentru expirare expiry_prefix = # Urmărește symlink-urile în timpul operațiunilor de transfer follow_symlinks = False # Forțează operațiunile de ștergere force = False # Continuă descărcarea fișierelor mari get_continue = False # Comanda pentru decriptarea fișierelor cu GPG gpg_command = /usr/bin/gpg # Comanda pentru decriptarea fișierelor GPG gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s # Comanda pentru criptarea fișierelor cu GPG gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s # Parola pentru GPG (dacă este necesară) gpg_passphrase = # Ghicește tipul MIME pe baza extensiilor de fișiere guess_mime_type = True # Host-ul pentru SimpleDB (dacă este utilizat) simpledb_host = sdb.amazonaws.com # Limita de fișiere procesate limit = -1 # Limita de rată pentru operațiuni (dacă este setată) limitrate = 0 # Listează MD5-urile fișierelor (dacă este activat) list_md5 = False # Permite listarea fișierelor în ordine aleatorie list_allow_unordered = False # Prefixul pentru jurnalele de target log_target_prefix = # Activează listarea detaliată long_listing = False # Numărul maxim de fișiere care pot fi șterse simultan max_delete = -1 # Tipul MIME pentru fișierele încărcate mime_type = # Dimensiunea maximă a chunk-urilor pentru încărcări multipart multipart_chunk_size_mb = 15 # Numărul maxim de chunk-uri pentru încărcări multipart multipart_max_chunks = 10000 # Păstrează atributele fișierelor originale preserve_attrs = True # Activează sau dezactivează afișarea progresului progress_meter = True # Host-ul pentru proxy (dacă este utilizat) proxy_host = # Portul pentru proxy (dacă este utilizat) proxy_port = 0 # Continuă descărcarea fișierelor mari put_continue = False # Dimensiunea chunk-urilor pentru descărcări recv_chunk = 65536 # Permite utilizarea redundanței reduse (Reduced Redundancy Storage) reduced_redundancy = False # Activează sau dezactivează plata pentru solicitanți requester_pays = False # Numărul de zile pentru restaurarea fișierelor șterse restore_days = 1 # Cheia secretă pentru autentificare secret_key = zuf+tfteSlswRu7BJ86wekitnifILbZam1KYY3TG # Dimensiunea chunk-urilor pentru încărcări send_chunk = 65536 # Activarea criptării pe server pentru fișiere server_side_encryption = False # Semnătura utilizată (V2 sau V4) signature_v2 = False # Host-ul pentru SimpleDB (dacă este utilizat) simpledb_host = sdb.amazonaws.com # Omite fișierele existente în timpul transferului skip_existing = False # Timpul de expirare pentru socket socket_timeout = 300 # Statistici (activează sau dezactivează) stats = False # Oprește procesul la prima eroare stop_on_error = False # Clasa de stocare utilizată (dacă este specificată) storage_class = # Modul de codificare URL urlencoding_mode = normal # Activează utilizarea HTTP Expect use_http_expect = False # Folosește HTTPS use_https = False # Utilizarea magiei MIME pentru a ghici tipurile MIME use_mime_magic = True # Verbose level pentru logare verbosity = WARNING # Endpoint pentru website website_endpoint = http://%(bucket)s.s3-website-%(location)s.amazonaws.com/ # Endpoint pentru pagina de eroare a website-ului website_error = # Endpoint pentru pagina principală a website-ului website_index = index.html
-
for version v4 the best option is aws s3
aws s3 cp /una/storage s3://yourbucketfolder --recursive
this works perfectly without error
-
I have no idea why you have the issues you have, but I have never used the aws tool, and I used the simple configuration tool to connect without issue.
I think you tinker too much, and please do not take this the wrong way. You tend to take the hard way a lot. I had no issues you had, and just set it all up for another and had 0 issues. I am glad that I was reminded of this post before trying, I would have been wondering where the option was. 😁
-
When you already have files stored on the server, you need to upload them manually. The UNA application doesn't automatically upload files from the storage folder. Simply changing the setting from local to Blackbase won't make the files transfer automatically. S3cmd uses v2, while Blackbase only supports v4 for signatures.
You can use the native Backblaze B2 application, but it does not support uploading entire folders only list of files and single files. However, with AWS CLI, you can upload the entire storage folder directly in a aingle comans, depending on your data center's bandwidth and how much data you have in storage wil upload or sync your data .
Additionally, you can update the local storage folder on your server with the UNA application using a bucket from Blackbase whenever you feel it's necessary. The UNA application may not always update files automatically, and if a file is missing, you can manually sync your storage at any time using AWS CLI . This way, you can ensure your files are always up-to-date. I prefer to manually write all my configuration files, as I don't like having them created automatically. I like to review every detail, checking each step carefully to ensure everything works flawlessly. When I manually write the configuration files, things always work perfectly like now. Thanks for the suggestion, but I don't understand what tool you are using?("and I used the simple configuration tool")