Esta página descreve como exportar e importar dados para instâncias do Cloud SQL usando arquivos de despejo SQL.
Antes de começar
As exportações usam recursos do banco de dados, mas não interferem nas operações normais do banco de dados, a menos que a instância esteja subprovisionada.
Para obter práticas recomendadas, consulte Práticas recomendadas para importação e exportação de dados .
Após concluir uma operação de importação, verifique os resultados.
Exportar dados do Cloud SQL para PostgreSQL
Funções e permissões necessárias para exportar do Cloud SQL para PostgreSQL
Para exportar dados do Cloud SQL para o Cloud Storage, o usuário que inicia a exportação deve ter uma das seguintes funções:
- A função Editor do Cloud SQL
- Uma função personalizada , incluindo as seguintes permissões:
-
cloudsql.instances.get
-
cloudsql.instances.export
-
Além disso, a conta de serviço da instância do Cloud SQL deve ter uma das seguintes funções:
- A função
storage.objectAdmin
Identity and Access Management (IAM) - Uma função personalizada, incluindo as seguintes permissões:
-
storage.objects.create
-
storage.objects.list
(para exportar arquivos apenas em paralelo) -
storage.objects.delete
(para exportar arquivos apenas em paralelo)
-
Para obter ajuda com funções do IAM, consulte Gerenciamento de Identidade e Acesso .
Exportar para um arquivo de despejo SQL do Cloud SQL para PostgreSQL
Quando você usa o Cloud SQL para realizar uma exportação, seja doGoogle Cloud console, a CLI do gcloud ou a API, você está usando o utilitáriopg_dump
, com as opções necessárias para garantir que o arquivo de exportação resultante seja válido para importação de volta para o Cloud SQL.Se você planeja importar seus dados para o Cloud SQL, siga as instruções fornecidas em Exportação de dados de um servidor de banco de dados externo para que seu arquivo de despejo SQL seja formatado corretamente para o Cloud SQL.
Para exportar dados de um banco de dados em uma instância do Cloud SQL para um arquivo de despejo SQL em um bucket do Cloud Storage:
Console
No Google Cloud console, acesse a página Instâncias do Cloud SQL .
- Para abrir a página Visão geral de uma instância, clique no nome da instância.
- Clique em Exportar .
- Na seção Formato de arquivo , clique em SQL para criar um arquivo de despejo SQL.
- Na seção Dados a serem exportados , use o menu suspenso para selecionar o banco de dados do qual deseja exportar.
- Na seção Destino , selecione Procurar para procurar um bucket ou pasta do Cloud Storage para sua exportação.
- Clique em Exportar para iniciar a exportação.
gcloud
- Crie um bucket do Cloud Storage .
- Encontre a conta de serviço da instância do Cloud SQL da qual você está exportando. Você pode fazer isso executando o comando
gcloud sql instances describe
. Procure o camposerviceAccountEmailAddress
na saída.gcloud sql instances describe INSTANCE_NAME
- Use
gcloud storage buckets add-iam-policy-binding
para conceder a funçãostorage.objectAdmin
do IAM à conta de serviço. Para obter ajuda na definição de permissões do IAM, consulte Usando permissões do IAM . - Exporte o banco de dados para seu bucket do Cloud Storage:
gcloud sql export sql INSTANCE_NAME gs://BUCKET_NAME/sqldumpfile.gz \ --database=DATABASE_NAME \ --offload
O comando
export sql
não contém gatilhos ou procedimentos armazenados, mas contém visualizações. Para exportar gatilhos e/ou procedimentos armazenados, use a ferramenta pg_dump .Para obter mais informações sobre como usar o comando
export sql
, consulte a página de referência do comandosql export sql
. - Se você não precisar manter a função do IAM definida anteriormente, revogue -a agora.
REST v1
- Crie um bucket para a exportação:
gcloud storage buckets create gs://BUCKET_NAME --project=PROJECT_NAME --location=LOCATION_NAME
Esta etapa não é obrigatória, mas é altamente recomendada, para que você não abra acesso a nenhum outro dado.
- Forneça à sua instância a função
legacyBucketWriter
do IAM para o seu bucket. Para obter ajuda com a definição de permissões do IAM, consulte Usando permissões do IAM . - Exporte seu banco de dados:
Antes de usar qualquer um dos dados solicitados, faça as seguintes substituições:
- PROJECT_ID : o ID do projeto
- INSTANCE_ID : o ID da instância
- BUCKET_NAME : o nome do bucket do Cloud Storage
- PATH_TO_DUMP_FILE : o caminho para o arquivo de despejo SQL
- DATABASE_NAME_1 : o nome de um banco de dados dentro da instância do Cloud SQL
- DATABASE_NAME_2 : o nome de um banco de dados dentro da instância do Cloud SQL
Método HTTP e URL:
POST https://sqladmin.googleapis.com/v1/projects/PROJECT_ID/instances/INSTANCE_ID/export
Corpo JSON da solicitação:
{ "exportContext": { "fileType": "SQL", "uri": "gs://BUCKET_NAME/PATH_TO_DUMP_FILE", "databases": ["DATABASE_NAME"], "offload": TRUE | FALSE, "sqlExportOptions": { "clean": [TRUE|FALSE], "ifExists": [TRUE|FALSE] } } }
Para enviar sua solicitação, expanda uma destas opções:
Você deve receber uma resposta JSON semelhante à seguinte:
- Se você não precisar manter a função do IAM definida anteriormente, remova-a agora.
REST v1beta4
- Crie um bucket para a exportação:
gcloud storage buckets create gs://BUCKET_NAME --project=PROJECT_NAME --location=LOCATION_NAME
Esta etapa não é obrigatória, mas é altamente recomendada, para que você não abra acesso a nenhum outro dado.
- Forneça à sua instância a função
storage.objectAdmin
do IAM para o seu bucket. Para obter ajuda na definição de permissões do IAM, consulte "Usando permissões do IAM" . - Exporte seu banco de dados:
Antes de usar qualquer um dos dados solicitados, faça as seguintes substituições:
- PROJECT_ID : o ID do projeto
- INSTANCE_ID : o ID da instância
- BUCKET_NAME : o nome do bucket do Cloud Storage
- PATH_TO_DUMP_FILE : o caminho para o arquivo de despejo SQL
- DATABASE_NAME_1 : o nome de um banco de dados dentro da instância do Cloud SQL
- DATABASE_NAME_2 : o nome de um banco de dados dentro da instância do Cloud SQL
Método HTTP e URL:
POST https://sqladmin.googleapis.com/sql/v1beta4/projects/PROJECT_ID/instances/INSTANCE_ID/export
Corpo JSON da solicitação:
{ "exportContext": { "fileType": "SQL", "uri": "gs://BUCKET_NAME/PATH_TO_DUMP_FILE", "databases": ["DATABASE_NAME"], "offload": TRUE | FALSE, "sqlExportOptions": { "clean": [TRUE|FALSE], "ifExists": [TRUE|FALSE] } } }
Para enviar sua solicitação, expanda uma destas opções:
Você deve receber uma resposta JSON semelhante à seguinte:
- Se você não precisar manter a função do IAM definida anteriormente, revogue -a agora.
Importar dados para o Cloud SQL para PostgreSQL
Funções e permissões necessárias para importar para o Cloud SQL para PostgreSQL
Para importar dados do Cloud Storage para o Cloud SQL, o usuário que inicia a importação deve ter uma das seguintes funções:
- A função de administrador do Cloud SQL
- Uma função personalizada , incluindo as seguintes permissões:
-
cloudsql.instances.get
-
cloudsql.instances.import
-
Além disso, a conta de serviço da instância do Cloud SQL deve ter uma das seguintes funções:
- A função
storage.objectAdmin
do IAM - Uma função personalizada, incluindo as seguintes permissões:
-
storage.objects.get
-
storage.objects.list
(para importar arquivos apenas em paralelo)
-
Para obter ajuda com funções do IAM, consulte Gerenciamento de Identidade e Acesso .
Importar um arquivo de despejo SQL para o Cloud SQL para PostgreSQL
Arquivos SQL são arquivos de texto simples com uma sequência de comandos SQL.
Console
No Google Cloud console, acesse a página Instâncias do Cloud SQL .
- Para abrir a página Visão geral de uma instância, clique no nome da instância.
- Clique em Importar .
- Na seção Escolha o arquivo do qual você gostaria de importar os dados , insira o caminho para o bucket e o arquivo de despejo SQL a serem usados para a importação ou navegue até um arquivo existente.
Você pode importar um arquivo compactado (
.gz
) ou descompactado (.sql
). - Para Formato , selecione SQL .
Selecione o banco de dados para o qual deseja que os dados sejam importados.
Isso faz com que o Cloud SQL execute a instrução
USE DATABASE
antes da importação.Se você quiser especificar um usuário para realizar a importação, selecione o usuário.
Se o arquivo de importação contiver instruções que devem ser executadas por um usuário específico, use este campo para especificar esse usuário.
- Clique em Importar para iniciar a importação.
gcloud
- Crie um bucket do Cloud Storage.
Carregue o arquivo no seu bucket.
Para obter ajuda com o upload de arquivos para buckets, consulte Upload de objetos .
- Descreva a instância para a qual você está importando:
gcloud sql instances describe INSTANCE_NAME
- Copie o campo
serviceAccountEmailAddress
. - Use
gcloud storage buckets add-iam-policy-binding
para conceder a funçãostorage.objectAdmin
do IAM à conta de serviço do bucket. Para obter ajuda na definição de permissões do IAM, consulte Usar permissões do IAM .gcloud storage buckets add-iam-policy-binding gs://BUCKET_NAME \ --member=serviceAccount:SERVICE-ACCOUNT \ --role=roles/storage.objectAdmin
- Importar o banco de dados:
gcloud sql import sql INSTANCE_NAME gs://BUCKET_NAME/IMPORT_FILE_NAME \ --database=DATABASE_NAME
Para obter informações sobre como usar o comando
import sql
, consulte a página de referência do comandosql import sql
.Se o comando retornar um erro como
ERROR_RDBMS
, revise as permissões; esse erro geralmente ocorre devido a problemas de permissões. - Se você não precisar manter as permissões do IAM definidas anteriormente, remova-as usando
gcloud storage buckets remove-iam-policy-binding
.
REST v1
Crie um arquivo de despejo SQL. As instruções vinculadas definem determinados sinalizadores que tornam o arquivo de despejo compatível com o Cloud SQL.
- Se você estiver importando dados de um servidor PostgreSQL local:
- Crie um arquivo de despejo SQL usando as instruções em Exportando dados usando pg_dump .
- Crie um bucket no Cloud Storage usando as instruções em Criar buckets .
- Carregue o arquivo de despejo SQL no bucket do Cloud Storage usando o procedimento em Carregar objetos .
- Crie um bucket do Cloud Storage.
Carregue o arquivo no seu bucket.
Para obter ajuda com o upload de arquivos para buckets, consulte Upload de objetos .
- Forneça à sua instância as funções do IAM
legacyBucketWriter
eobjectViewer
para o seu bucket. Para obter ajuda na definição de permissões do IAM, consulte Usando permissões do IAM . - Importe seu arquivo de despejo:
Antes de usar qualquer um dos dados solicitados, faça as seguintes substituições:
- project-id : O ID do projeto
- instance-id : O ID da instância
- bucket_name : O nome do bucket do Cloud Storage
- path_to_sql_file : O caminho para o arquivo SQL
- database_name : O nome de um banco de dados dentro da instância do Cloud SQL
Método HTTP e URL:
POST https://sqladmin.googleapis.com/v1/projects/project-id/instances/instance-id/import
Corpo JSON da solicitação:
{ "importContext": { "fileType": "SQL", "uri": "gs://bucket_name/path_to_sql_file", "database": "database_name" } }
Para enviar sua solicitação, expanda uma destas opções:
Você deve receber uma resposta JSON semelhante à seguinte:
Para usar um usuário diferente para a importação, especifique a propriedade
Para obter a lista completa de parâmetros para a solicitação, consulte a página instances:import .importContext.importUser
. - Se você não precisar manter as permissões do IAM definidas anteriormente, remova-as agora.
REST v1beta4
Crie um arquivo de despejo SQL. As instruções vinculadas definem determinados sinalizadores que tornam o arquivo de despejo compatível com o Cloud SQL.
- Se você estiver importando dados de um servidor PostgreSQL local:
- Crie um arquivo de despejo SQL usando as instruções em Exportando dados usando pg_dump .
- Crie um bucket no Cloud Storage usando as instruções em Criar buckets .
- Carregue o arquivo de despejo SQL no bucket do Cloud Storage usando o procedimento em Carregar objetos .
- Crie um bucket do Cloud Storage.
Carregue o arquivo no seu bucket.
Para obter ajuda com o upload de arquivos para buckets, consulte Upload de objetos .
- Forneça à sua instância a função
storage.objectAdmin
do IAM para o seu bucket. Para obter ajuda na definição de permissões do IAM, consulte "Usando permissões do IAM" . - Importe seu arquivo de despejo:
Antes de usar qualquer um dos dados solicitados, faça as seguintes substituições:
- project-id : O ID do projeto
- instance-id : O ID da instância
- bucket_name : O nome do bucket do Cloud Storage
- path_to_sql_file : O caminho para o arquivo SQL
- database_name : O nome de um banco de dados dentro da instância do Cloud SQL
Método HTTP e URL:
POST https://sqladmin.googleapis.com/sql/v1beta4/projects/project-id/instances/instance-id/import
Corpo JSON da solicitação:
{ "importContext": { "fileType": "SQL", "uri": "gs://bucket_name/path_to_sql_file", "database": "database_name" } }
Para enviar sua solicitação, expanda uma destas opções:
Você deve receber uma resposta JSON semelhante à seguinte:
Para usar um usuário diferente para a importação, especifique a propriedade
Para obter a lista completa de parâmetros para a solicitação, consulte a página instances:import .importContext.importUser
. - Se você não precisar manter as permissões do IAM definidas anteriormente, remova-as agora.
O que vem a seguir
- Aprenda como consultar o status das operações de importação e exportação .
- Saiba mais sobre as melhores práticas para importar e exportar dados .
- Saiba mais sobre o armazenamento em nuvem .
- Problemas conhecidos para importações e exportações .