Mieć zadokrotny skrypt Pythona i przy użyciu Docker-Compose dla lokalnego rozwoju. Musisz przenieść go do GKE, ale niepewnie, co Usługi GCP mogą być używane do trwałej objętości.

# docker-compose.yaml
version: "3"

services:
  python-obj-01:
    image: python-obj
    build:
      context: .
      dockerfile: dockerfile
    container_name: python-obj-01
    volumes:
      - ./data/inputs:/home/appuser/data/inputs
      - ./data/outputs:/home/appuser/data/outputs
      - ./data/model:/home/appuser/data/obj_detection

Istnieją 3 punkty montażu z mojej lokalnej maszyny:

  • ./data/input: odczytuje i przetwarza dane wejściowe
  • ./data/Output: pisze wyniki
  • ./data/model: Odczytuje modele danych wejściowych

W skrypcie Pythona będzie on Glob na znalezienie plików z

Oprócz chmur Filestore, może chmurzyć wiadro pamięci masowej w stanie spełnić wymagania? lub inne usługi GCP?

2
jj pan 9 październik 2020, 05:34

1 odpowiedź

Najlepsza odpowiedź

Czy wiadro przechowywania w chmurze może spełnić wymagania?

Jeśli wymaga się, działa z objętością jak system plików Odpowiedź jest nr

Dlaczego?

Przechowywanie w chmurze jest przechowywaniem obiektu i nie można go używać jako normalne kamizelki. Powinien być idealny do przechowywania i odczytywania plików, ale w celu wyodrębnienia wszystkich potężnych i funkcji z pamięci chmurowej, musisz przepisać aplikację do użycia API przechowywania w chmurze, na przykład.

W GCP Domyślnie utrzymująca się pamięć masowa jest Compute Compute Persisten Diski , można również użyć niektórych serwisu NFS, takich jak Firestore.

Najlepszym rozwiązaniem zależy od tego, jak działa aplikacja i jak znaczenie dla tych danych dla Ciebie.

Tutaj możesz przeczytać więcej o woluminy w GCP.

2
MrKoopaKiller 9 październik 2020, 10:21