Vertex Explainable AI와 연결된 컴퓨팅에는 예측과 동일한 요금이 청구됩니다.
하지만 설명은 일반적인 예측보다 처리 시간이 오래 걸리므로 Vertex Explainable AI를 자동 확장과 함께 과도하게 사용할 경우 많은 노드가 시작되어 예측 요금이 증가할 수 있습니다.
Vertex AI Forecast
AutoML
단계
가격 책정
예측
1K개 데이터 포인트당 $0.2*(0~1M개 포인트) 1K개 데이터 포인트당 $0.1*(1M~50M개 포인트) 1K개 데이터 포인트당 $0.02*(>50M개 포인트)
* Cloud TPU Pod를 사용한 학습 가격은 포드의 코어 수에 따라 결정됩니다. 포드의 코어 수는 항상 32의 배수입니다. 코어가 32개가 넘는 포드의 학습 가격을 결정하려면 32코어 포드의 가격에 코어 수를 32로 나눈 값을 곱합니다. 예를 들어 128코어 포드의 경우 가격은 (32-core Pod price) * (128/32)입니다. 특정 리전에서 사용할 수 있는 Cloud TPU Pod에 관한 자세한 내용은 Cloud TPU 문서의 시스템 아키텍처를 참조하세요.
모델을 학습시킬 때 사용할 처리 클러스터의 유형을 제어할 수 있습니다.
가장 간단한 방법은 확장 등급이라는 사전 정의된 구성 중 하나를 선택하는 것입니다. 확장 등급에 대해 자세히 알아보세요.
커스텀 구성용 머신 유형
Vertex AI를 사용하거나 AI Platform Training의 확장 등급으로 CUSTOM을 선택하면 클러스터의 마스터, 작업자, 파라미터 서버에 사용할 가상 머신의 개수와 유형을 제어할 수 있습니다. Vertex AI의 머신 유형과 AI Platform Training의 머신 유형에 대해 자세히 알아보세요.
커스텀 처리 클러스터를 사용한 학습에는 지정한 모든 머신의 비용을 합친 요금이 청구됩니다. 개별 머신의 활성 처리 시간이 아닌 작업의 총 시간에 대한 요금이 청구됩니다.
Vertex AI 기반 Ray
학습
아래 표에는 다양한 학습 구성의 대략적인 시간당 가격이 나와 있습니다. 선택한 머신 유형의 커스텀 구성을 선택할 수 있습니다. 가격을 계산하려면 사용하는 가상 머신 비용의 합계를 구하세요.
Compute Engine 머신 유형을 사용한 후 가속기를 추가하면 가속기 비용이 별도 부과됩니다. 이 비용을 계산하려면 아래의 가속기 표에 있는 가격에 현재 사용 중인 가속기 유형별 개수를 곱하세요.
* Cloud TPU Pod를 사용한 학습 가격은 포드의 코어 수에 따라 결정됩니다. 포드의 코어 수는 항상 32의 배수입니다. 코어가 32개가 넘는 포드의 학습 가격을 결정하려면 32코어 포드의 가격에 코어 수를 32로 나눈 값을 곱합니다. 예를 들어 128코어 포드의 경우 가격은 (32-core Pod price) * (128/32)입니다. 특정 리전에서 사용할 수 있는 Cloud TPU Pod에 관한 자세한 내용은 Cloud TPU 문서의 시스템 아키텍처를 참조하세요.
일부 머신 유형에는 선택 사항으로 예측용 GPU 가속기를 추가할 수 있습니다. 선택 사항으로 GPU를 사용하면 이전 표에 나와 있는 요금 외에 별도의 추가 비용이 발생합니다. 각 유형의 선택적 GPU에 대한 가격 책정을 설명하는 각 가격표를 확인하세요.
미주
가속기 - 시간당 가격
NVIDIA_TESLA_P4
아이오와(us-central1)
$0.6900
노던 버지니아(us-east4)
$0.6900
몬트리올(northamerica-northeast1)
$0.7475
NVIDIA_TESLA_P100
오리건(us-west1)
$1.6790
아이오와(us-central1)
$1.6790
사우스캐롤라이나(us-east1)
$1.6790
NVIDIA_TESLA_T4
오리건(us-west1)
$0.4025
아이오와(us-central1)
$0.4025
사우스캐롤라이나(us-east1)
$0.4025
NVIDIA_TESLA_V100
오리건(us-west1)
$2.8520
아이오와(us-central1)
$2.8520
유럽
가속기 - 시간당 가격
NVIDIA_TESLA_P4
네덜란드(europe-west4)
$0.7475
NVIDIA_TESLA_P100
벨기에(europe-west1)
$1.8400
NVIDIA_TESLA_T4
런던(europe-west2)
$0.4715
네덜란드(europe-west4)
$0.4370
NVIDIA_TESLA_V100
네덜란드(europe-west4)
$2.9325
아시아 태평양
가속기 - 시간당 가격
NVIDIA_TESLA_P4
싱가포르(asia-southeast1)
$0.7475
시드니(australia-southeast1)
$0.7475
NVIDIA_TESLA_P100
타이완(asia-east1)
$1.8400
NVIDIA_TESLA_T4
도쿄(asia-northeast1)
$0.4255
싱가포르(asia-southeast1)
$0.4255
서울(asia-northeast3)
$0.4485
NVIDIA_TESLA_V100
타이완(asia-east1)
$2.932
GPU당 가격이 적용되므로 한 예측 노드에서 여러 GPU를 사용하거나 여러 노드를 사용하도록 버전을 확장하는 경우 그에 따라 비용이 인상됩니다.
AI Platform Prediction은 여러 가상 머신('노드')을 실행하여 모델의 예측을 제공합니다. 기본적으로 Vertex AI는 언제든지 실행 중인 노드 수를 자동으로 확장합니다. 온라인 예측의 경우 수요에 맞게 노드 수가 확장됩니다. 각 노드는 여러 예측 요청에 응답할 수 있습니다. 일괄 예측의 경우 총 작업 실행 소요 시간을 줄이기 위해 노드 수가 확장됩니다. 예측 노드 수 확장 방법을 맞춤설정할 수 있습니다.
다음을 포함해 모델에서 각 노드가 실행되는 시간에 대해 요금이 부과됩니다.
노드가 일괄 예측 작업을 처리하는 시간
노드가 온라인 예측 요청을 처리하는 시간
노드가 온라인 예측을 제공하기 위해 준비 상태로 대기하는 시간
1시간 동안 실행되는 노드 1개의 비용을 노드 시간이라고 합니다. 예측 가격표에 노드 시간의 가격이 나와 있습니다. 이는 리전 간에도 다르고, 온라인 예측과 일괄 예측 간에도 다릅니다.
노드 시간을 백분위수 단위로 사용할 수 있습니다. 예를 들어 30분 동안 실행되는 노드 1개의 비용은 0.5노드 시간입니다.
Compute Engine(N1) 머신 유형의 비용 계산
노드의 실행 시간은 30초 단위로 청구됩니다. 즉, 30초마다 해당 시점에 노드에서 사용 중인 30초 상당의 vCPU, RAM, GPU 리소스 요금이 프로젝트에 청구됩니다.
예측 노드의 자동 확장에 대한 추가 정보
온라인 예측
일괄 예측
확장의 우선순위는 개별 요청의 지연 시간을 줄이는 데 있습니다. 요청을 처리한 후 몇 분간의 유휴 시간 동안 서비스에서 모델을 준비 상태로 유지합니다.
확장의 우선순위는 작업의 총 경과 시간을 줄이는 데 있습니다.
확장은 월별 요금 총액에 영향을 줍니다. 요청의 개수 및 빈도가 높을수록 많은 노드가 사용됩니다.
확장은 작업 가격에 거의 영향을 미치지 않지만 새 노드를 실행할 때 약간의 오버헤드가 발생합니다.
트래픽에 따라 서비스가 확장되도록 선택하거나(자동 확장) 지속적으로 실행할 노드의 수를 지정해 지연을 방지할 수 있습니다(수동 확장).
자동 확장을 선택하면 노드 수가 자동으로 확장됩니다. AI Platform Prediction 기존(MLS1) 머신 유형 배포의 경우 트래픽이 없는 기간 동안 노드 수를 0으로 축소할 수 있습니다. Vertex AI 배포 및 기타 유형의 AI Platform Prediction 배포는 노드 수를 0개로 축소할 수 없습니다.
수동 확장을 선택할 경우 항상 계속 실행할 노드 수를 지정합니다. 노드가 실행되는 시간, 즉 배포 시 시작되고 모델 버전을 삭제할 때까지 지속되는 전체 시간에 대한 요금이 부과됩니다.
일괄 예측 작업에서 사용할 최대 노드 수를 설정하고 배포 시 모델에서 계속 실행할 노드 수를 설정해 확장에 영향을 줄 수 있습니다.
일괄 예측 작업은 작업 완료 후 요금이 청구됨
일괄 예측 작업은 작업 도중 증분 방식이 아닌 작업 완료 후 요금이 청구됩니다. 구성한 Cloud Billing 예산 알림은 작업이 실행되는 동안 트리거되지 않습니다. 대규모 작업을 시작하기 전에 먼저 작은 입력 데이터로 비용 벤치마크 작업을 실행하는 것이 좋습니다.
예측 계산의 예
미주 리전의 부동산 업체가 사업을 진행하고 있는 리전의 주택 가격에 대한 주간 예측을 실행합니다. 한 달 동안 각각 3920, 4277, 3849, 3961개의 인스턴스로 이루어진 4주간의 일괄 예측을 실행합니다. 작업은 1개 노드로 제한되었고, 각 인스턴스의 평균 처리 시간은 0.72초입니다.
예시의 잠재 공간 표현을 생성하기 위해 사용되는 일괄 예측 작업의 노드 시간당. 이는 예측과 동일한 요율로 청구됩니다.
색인 빌드 또는 업데이트에 드는 비용. 이 비용은 벡터 검색의 색인 생성 비용과 같습니다. 즉, 예시 수 * 차원 수 * 부동 소수점 수당 4바이트 * GB당 $3.00입니다.
예를 들어 1백만 개의 예시와 1,000개의 차원 잠재 공간이 있는 경우 비용은 $12(1,000,000 * 1,000 * 4 * 3.00 / 1,000,000,000)입니다.
엔드포인트에 배포하면 엔드포인트의 각 노드에 대해 노드 시간당 요금이 청구됩니다. 엔드포인트와 연결된 모든 컴퓨팅에는 예측과 동일한 요율로 요금이 청구됩니다. 그러나 예시 기반 설명에는 벡터 검색 색인을 제공하기 위해 추가 컴퓨팅 리소스가 필요하므로 이로 인해 더 많은 노드가 시작되고, 예측 비용이 증가합니다.
Vertex AI 신경망 아키텍처 검색
다음 표에는 신경망 아키텍처 검색을 사용할 수 있는 각 리전의 가격 책정이 요약되어 있습니다.
가격
다음 표에는 다양한 구성의 시간당 가격이 나와 있습니다.
사전 정의된 확장 등급을 선택하거나, 선택한 머신 유형으로 이루어진 커스텀 구성을 선택할 수도 있습니다. 커스텀 구성을 선택하는 경우 현재 사용하는 가상 머신 비용의 합계를 구하세요.
가속기 지원 기존 머신 유형의 가격에는 가속기 비용이 포함되어 있습니다. Compute Engine 머신 유형을 사용한 후 가속기를 추가하면 가속기 비용이 별도 부과됩니다. 이 비용을 계산하려면 다음 가속기 표에 있는 가격에 현재 사용 중인 가속기 유형별 개수를 곱하세요.
각 VM의 디스크 크기를 100GB가 넘도록 구성한 경우에만 디스크 가격이 청구됩니다. 각 VM의 디스크 100GB(기본 디스크 크기)에는 요금이 부과되지 않습니다. 예를 들어 각 VM에 105GB의 디스크를 사용하도록 구성할 경우 VM마다 5GB의 디스크 요금이 청구됩니다.
Cloud Storage 필수 사용
이 문서에 설명된 비용을 지불하는 것 외에도, 신경망 아키텍처 검색 수명 주기 동안 Cloud Storage 버킷에 데이터 및 프로그램 파일을 저장해야 합니다. 이 같은 저장에는 Cloud Storage 가격 책정 정책이 적용됩니다.
Cloud Storage 사용이 필요한 경우는 다음과 같습니다.
학습 애플리케이션 패키지 스테이징
학습 입력 데이터 저장
작업의 출력을 저장합니다.
신경망 아키텍처 검색은 이러한 항목을 장기간 저장할 필요가 없습니다.
작업이 완료되는 즉시 파일을 삭제해도 됩니다.
무료 리소스 관리 작업
신경망 아키텍처 검색에서 제공하는 리소스 관리 작업은 무료로 사용할 수 있습니다. 신경망 아키텍처 검색 할당량 정책은 이러한 작업 중 일부를 제한합니다.
리소스
무료 작업
jobs
get, list, cancel
operations
get, list, cancel, delete
Vertex AI Pipelines
Vertex AI Pipelines는 파이프라인 실행당 $0.03의 실행 요금을 부과합니다. 미리보기 출시 중에는 실행 요금이 청구되지 않습니다.
또한 파이프라인 구성요소에서 사용하는 Compute Engine 리소스와 같이 Vertex AI Pipelines에서 사용하는 Google Cloud 리소스에 대한 비용도 청구됩니다(Vertex AI Training과 동일한 요율로 요금 청구). 마지막으로, 파이프라인이 호출하는 모든 서비스(예: Dataflow)의 비용을 지불해야 합니다.
Vertex AI 신속 평가
Vertex AI Rapid Evaluation 서비스는 문자열 입력 및 출력 필드에 1,000자 단위로 요금을 부과합니다. 문자 1개를 유니코드 문자 하나로 정의합니다. 공백은 개수에서 제외됩니다. 필터링된 응답을 포함하여 실패한 평가 요청에는 입력 또는 출력에 대한 요금이 청구되지 않습니다. 결제 주기가 끝날 때마다 1센트($0.01)의 분수가 1센트로 반올림됩니다.
계산 기반 측정항목의 요금은 입력의 경우 1,000자(영문 기준)당 $0.00003, 출력은 1,000자(영문 기준)당 $0.00009입니다. SKU에서는 포인트와이즈 측정항목이라고 합니다.
측정항목 이름
유형
완전 일치 검색
계산 기반
BLEU
계산 기반
ROUGE
계산 기반
tool_call_valid
계산 기반
tool_name_match
계산 기반
tool_parameter_key_match
계산 기반
tool_parameter_kv_match
계산 기반
가격은 미국 달러(USD)로 표기됩니다.
USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.
모델 기반 측정항목의 경우 입력은 1,000자당 $0.005, 출력은 1,000자당 $0.015가 청구됩니다. 모델 기반 측정항목에는 예측 서비스에 대한 별도의 요금이 포함됩니다. Vertex AI Prediction and Explanation 가격 책정 페이지를 참조하세요.
측정항목 이름
유형
일관성
점별
유창성
점별
처리
점별
안전
점별
그라운딩
점별
summarization_quality
점별
summarization_helpfulness
점별
summarization_verbosity
점별
question_answering_quality
점별
question_answering_relevance
점별
question_answering_helpfulness
점별
question_answering_correctness
점별
pairwise_summarization_quality
AutoSxS
pairwise_question_answering_quality
AutoSxS
가격은 미국 달러(USD)로 표기됩니다.
USD 외의 통화로 지불하는 경우 Cloud Platform SKU에 해당 통화로 표기된 가격이 적용됩니다.
Vertex AI Feature Store
Vertex AI Feature Store는 2023년 11월부터 정식 버전(GA)으로 제공됩니다. 이전 버전 제품에 관한 정보는 Vertex AI Feature Store(기존)를 참조하세요.
새로운 Vertex AI Feature Store
새로운 Vertex AI Feature Store는 두 가지 작업 유형에 걸쳐 기능을 지원합니다.
오프라인 작업은 오프라인 스토어(BigQuery)에서 데이터를 전송, 저장, 검색 및 변환하는 작업입니다.
온라인 작업은 온라인 스토어로 데이터를 전송하는 작업이나 온라인 스토어에 데이터가 저장되어 있는 동안 데이터에 수행하는 작업입니다.
오프라인 작업 가격 책정
BigQuery는 오프라인 작업에 사용되므로 오프라인 스토어로의 수집, 오프라인 스토어 쿼리하기 및 오프라인 스토리지 등의 기능에 대해서는 BigQuery 가격 책정을 참조하세요.
온라인 작업 가격 책정
온라인 작업의 경우 Vertex AI Feature Store는 데이터를 온라인 스토어로 전송하거나 데이터를 제공하거나 저장하는 모든 GA 기능에 대해 요금을 청구합니다. 노드-시간은 가상 머신이 작업을 완료하는 데 소요한 시간을 의미하며, 분 단위로 청구됩니다.
최적화된 온라인 서빙과 Bigtable 온라인 서빙은 서로 다른 아키텍처를 사용하므로 노드를 비교할 수 없습니다.
USD 외의 통화로 지불하는 경우 해당 통화로 표기된 가격은
Cloud Platform SKU
적용됩니다.
온라인 작업 워크로드 추정치
워크로드를 추정할 때 다음 가이드라인을 고려하세요. 특정 워크로드에 필요한 노드 수는 각 서빙 접근 방식에 따라 다를 수 있습니다.
데이터 처리:
수집 - 분석 기능을 사용하지 않는 경우 하나의 노드는 시간당 약 100MB의 데이터를 Bigtable 온라인 스토어 또는 최적화된 온라인 스토어에 수집할 수 있습니다.
Bigtable 온라인 서빙: 각 노드는 약 1500QPS와 최대 5TB의 스토리지를 지원할 수 있습니다.
온라인 서빙 최적화: 성능은 워크로드에 따른 비용을 최소화하도록 자동으로 구성되는 머신 유형과 복제본을 기반으로 합니다. 각 노드는
최소 2개에서 최대 6개의 복제본으로 구성되어야 합니다. 이에 따라 복제본 수에 대한 요금이 청구됩니다. 자세한 내용은 월별 시나리오 예시를 참고하세요.
임베딩과 관련되지 않은 워크로드의 경우 각 노드는 약 500QPS와 최대 200GB의 스토리지를 지원할 수 있습니다.
임베딩 관련 워크로드의 경우 각 노드는 512차원 데이터를 저장할 수 있는 최대 4GB의 스토리지와 약 500QPS를 지원할 수 있습니다.
측정항목 탐색기에서 복제본이 있는 노드 수를 확인할 수 있습니다.
월간 시나리오 예시(us-central1 가정)
데이터 스트리밍 워크로드 - 2.5TB의 데이터(매일 1GB가 새로고침됨) 및 1200QPS를 사용하는 Bigtable 온라인 서빙
반올림(20GB*(20GB*(노드 1개 / 4GB) = 5 * 최대(기본 복제본 2개, 800QPS * (복제본 1개 / 500QPS)) = 총 노드 10개 * (24시간/일) * (30일/월) = 7,200노드-시간
7200 노드-시간 * (노드-시간당 0.30) = $2,160
Bigtable 온라인 서빙 노드
해당 사항 없음
해당 사항 없음
Bigtable 온라인 서빙 스토리지
해당 사항 없음
해당 사항 없음
합계
2,208달러
Vertex AI Feature Store(기존)
Vertex AI Feature Store(기존)의 가격은 온라인 및 오프라인 스토리지의 특성 데이터 양과 온라인 서빙 여부를 기반으로 합니다. 시간당 노드는 가상 머신에서 특성 데이터를 서빙하거나 특성 데이터 요청을 처리하기 위해 준비 상태에서 대기하는 데 사용한 시간을 의미합니다.
분석된 모든 데이터에 대해 GB당 $3.50. 스냅샷 분석을 활성화하면 Vertex AI Feature Store(기존)의 데이터에 대해 스냅샷이 생성됩니다. 특성 분석 가져오기를 활성화하면 수집된 데이터 배치가 포함됩니다.
특성값 모니터링에 사용되는 다른 Vertex AI Feature Store(기존) 작업에 대한 추가 요금은 다음과 같습니다.
스냅샷 분석 기능은 모니터링 간격에 대한 구성을 기반으로 특성값의 스냅샷을 주기적으로 생성합니다.
스냅샷 내보내기에 대한 요금은 일반 일괄 내보내기 작업과 동일합니다.
스냅샷 분석 예시
데이터 과학자는 Vertex AI Feature Store(기존)에 대한 특성값 모니터링을 활성화하고 일일 스냅샷 분석에 대한 모니터링을 켭니다.
항목 유형 모니터링을 위해 파이프라인이 매일 실행됩니다. 파이프라인은 Vertex AI Feature Store(기존)에서 2GB의 데이터를 스캔하고 0.1GB의 데이터가 포함된 스냅샷을 내보냅니다.
1일 분석에 대한 총 요금은 다음과 같습니다.
(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36
수집 분석 예시
데이터 과학자는 Vertex AI Feature Store(기존)에 대한 특성값 모니터링을 활성화하고 수집 작업에 대한 모니터링을 켭니다.
수집 작업은 1GB의 데이터를 Vertex AI Feature Store(기존)로 가져옵니다.
특성값 모니터링에 대한 총 요금은 다음과 같습니다.
(1 GB * $3.50) = $3.50
Vertex ML Metadata
메타데이터 스토리지는 바이너리 기가바이트(GiB) 단위로 측정되며, 1GiB는 1,073,741,824바이트입니다. 이 측정 단위를 gibibyte라고도 합니다.
Vertex ML Metadata는 메타데이터 스토리지에 대해 1GiB당 월 $10를 청구합니다. 가격은 메가바이트(MB) 단위로 일할 계산됩니다. 예를 들어 10MB의 메타데이터를 저장하는 경우 해당 10MB의 메타데이터에 대해 매월 $0.10가 청구됩니다.
Vertex ML Metadata가 지원되는 모든 리전에서 가격이 동일합니다.
Vertex AI 텐서보드
Vertex AI 텐서보드를 사용하려면 프로젝트의 IAM 관리자에게 'Vertex AI 텐서보드 웹 앱 사용자' 역할을 할당해 달라고 요청하세요. Vertex AI 관리자 역할에도 액세스 권한이 있습니다.
2023년 8월부터 Vertex AI 텐서보드 가격은 로그 및 측정항목의 데이터 스토리지에 대해 사용자당 월별 라이선스 $300/월에서 $10GiB/월로 변경되었습니다. 즉, 더 이상 구독료가 없으며 사용한 스토리지에 대해서만 비용을 지불하면 됩니다. 스토리지 관리 방법은 Vertex AI 텐서보드: 오래된 텐서보드 실험 삭제 튜토리얼을 참조하세요.
Vertex AI Vizier
Vertex AI Vizier는 Vertex AI에 포함된 블랙박스 최적화 서비스입니다.
Vertex AI Vizier 가격 책정 모델은 다음과 같습니다.
월별 첫 Vertex AI Vizier 100회 시도는 무료입니다(RANDOM_SEARCH 및 GRID_SEARCH를 사용하는 시도는 이 합계에 포함되지 않음).
Vertex AI Vizier 시도가 100회를 초과하면 같은 달 이후 후속 시도에 $1의 요금이 부과됩니다(RANDOM_SEARCH 또는 GRID_SEARCH를 사용하는 시도에는 요금이 부과되지 않음).
벡터 검색
벡터 검색 근사 최근접 이웃 서비스의 가격 책정은 다음과 같이 구성됩니다.
배포된 색인을 호스팅하는 데 사용되는 각 VM의 노드 시간당 가격
새 색인을 빌드하고, 기존 색인을 업데이트하고, 색인 업데이트 스트리밍을 사용하는 데 드는 비용
색인을 빌드하고 업데이트하는 동안 처리된 데이터는 바이너리 GB(기가바이트, 1GiB = 1,073,741,824바이트) 단위로 측정됩니다. 이 측정 단위를 gibibyte라고도 합니다.
벡터 검색은 모든 리전에서 처리된 데이터의 기비바이트(GiB)당 $3.00의 요금을 청구합니다. 벡터 검색은 수집된 GiB당 $0.45의 요금을 청구합니다
스트리밍 업데이트 삽입용입니다.
다음 표에는 벡터 검색을 사용할 수 있는 각 리전의 인덱스 서빙 가격이 요약되어 있습니다. 가격은 머신 유형, 리전에 따라 다르며 노드 시간당 요금이 청구됩니다.
미주
리전
e2-standard-2
e2-standard-16
e2-highmem-16
n2d-standard-32
n1-standard-16
n1-standard-32
us_central1
0.094
0.75
1.012
1.893
1.064
2.128
us_east1
0.094
0.75
1.012
1.893
1.064
2.128
us_east4
0.10
0.845
1.14
2.132
1.198
2.397
us_west1
0.094
0.75
1.012
1.893
1.064
2.128
us_west2
0.113
0.901
1.216
2.273
1.279
2.558
us_west3
0.113
0.901
1.216
해당 사항 없음
1.279
2.558
us_west4
0.106
0.845
1.14
2.132
1.198
2.397
us_south1
0.111
0.886
1.195
해당 사항 없음
해당 사항 없음
해당 사항 없음
northamerica_northeast1
0.103
0.826
1.115
2.084
1.172
2.343
northamerica_northeast2
0.103
0.826
1.115
해당 사항 없음
해당 사항 없음
해당 사항 없음
southamerica_east1
0.149
1.191
1.607
3.004
1.69
3.38
유럽
리전
e2-standard-2
e2-standard-16
e2-highmem-16
n2d-standard-32
n1-standard-16
n1-standard-32
europe_central2
0.121
0.967
1.304
해당 사항 없음
해당 사항 없음
해당 사항 없음
europe_north1
0.103
0.826
1.115
2.084
1.172
2.343
europe_west1
0.103
0.826
1.114
2.082
1.171
2.343
europe_west2
0.121
0.967
1.304
2.438
1.371
2.742
europe_west3
0.121
0.967
1.304
2.438
1.371
2.742
europe_west4
0.103
0.826
1.115
2.084
1.172
2.343
europe_west6
0.131
1.050
1.417
해당 사항 없음
1.489
2.978
europe_west9
0.131
1.051
1.417
2.195
해당 사항 없음
해당 사항 없음
아시아 태평양
리전
e2-standard-2
e2-standard-16
e2-highmem-16
n2d-standard-32
n1-standard-16
n1-standard-32
asia_east1
0.109
0.869
1.172
2.191
1.232
2.464
asia_east2
0.131
1.050
1.417
2.648
1.489
2.978
asia_south1
0.113
0.901
1.216
1.249
1.278
2.556
asia_southeast1
0.116
0.926
1.249
2.335
1.313
2.625
asia_southeast2
0.126
1.009
1.361
해당 사항 없음
해당 사항 없음
해당 사항 없음
asia_northeast1
0.12
0.963
1.298
2.428
1.366
2.733
asia_northeast2
0.12
0.963
1.298
2.428
1.366
2.733
asia_northeast3
0.12
0.963
1.298
해당 사항 없음
1.367
2.733
australia_southeast1
0.133
1.065
1.436
2.686
1.51
3.02
중동
리전
e2-standard-2
e2-standard-16
e2-highmem-16
n2d-standard-32
n1-standard-16
n1-standard-32
me_west1
0.103
0.826
1.114
2.082
해당 사항 없음
해당 사항 없음
벡터 검색 가격 책정 예시
벡터 검색 가격은 데이터 크기, 실행하려는 초당 쿼리 수(QPS)의 수량 및 사용하는 노드 수에 따라 결정됩니다.
예상 서빙 비용을 알아보려면 총 데이터 크기를 계산해야 합니다.
데이터 크기는 임베딩/벡터 수 * 차원 수 * 차원당 4바이트입니다. 데이터 크기를 계산한 다음에는 서빙 비용과 빌드 비용을 계산할 수 있습니다. 서빙 비용에 빌드 비용을 더하면 월간 총 비용이 됩니다.
스트리밍 업데이트: 벡터 검색은 휴리스틱 기반 측정항목을 사용하여 압축을 트리거할 시기를 결정합니다. 압축되지 않은 가장 오래된 데이터가 5일 지난 경우 압축이 항상 트리거됩니다. 스트리밍 업데이트 비용 외에 일괄 업데이트와 동일한 속도로 색인을 다시 빌드하는 비용이 청구됩니다.
임베딩/벡터 수
차원 수
초당 쿼리 수(QPS)
머신 유형
노드
예상 월별 서빙 비용
200만
128
100
e2-standard-2
1
$68
2,000만
256
1,000
e2-standard-16
1
$547
2,000만
256
3,000
e2-standard-16
3
$1,642
1억
256
500
e2-highmem-16
2
$1,477
10억
100
500
e2-highmem-16
8
$5,910
모든 예시는 us-central1의 머신 유형을 기반으로 합니다.
발생하는 비용은 재현율 및 지연 시간 요구사항에 따라 달라집니다. 예상 월별 서빙 비용은 콘솔에서 사용되는 노드 수와 직접적인 관련이 있습니다.
비용에 영향을 미치는 구성 파라미터에 대해 자세히 알아보려면 재현율 및 지연 시간에 영향을 미치는 구성 파라미터를 참조하세요.
초당 쿼리 수(QPS)가 높은 경우 이러한 쿼리를 일괄 처리하려면 총 비용을 최대 30%~40%까지 줄일 수 있습니다.
Vertex AI Model Registry
Vertex AI Model Registry는 모델과 모델 버전을 추적하고 나열하는 중앙 저장소입니다. 모델을 Vertex AI로 가져올 수 있으며 이러한 모델은 Vertex AI Model Registry에 표시됩니다. Model Registry에 모델을 저장하는 데에는 비용이 들지 않습니다. 비용은 모델을 엔드포인트에 배포하거나 모델에서 일괄 예측을 수행하는 경우에만 발생합니다. 이 비용은 배포하는 모델 유형에 따라 다릅니다.
Vertex AI Model Registry에서 커스텀 모델을 배포하는 가격에 대해 자세히 알아보려면 커스텀 학습 모델을 참조하세요. AutoML 모델 배포 가격 책정에 대해 자세히 알아보려면 AutoML 모델 가격 책정을 참조하세요.
Vertex AI 모델 모니터링
Vertex AI를 사용하면 모델을 프로덕션에 배포한 후에도 모델의 지속적인 효과를 모니터링할 수 있습니다. 자세한 내용은 Vertex AI 모델 모니터링 소개를 참조하세요.
Vertex AI 모델 모니터링을 사용하면 다음에 대해 비용이 청구됩니다.
제공된 모든 학습 데이터 및 BigQuery 테이블에 로깅된 예측 데이터를 포함하여 분석된 모든 데이터에 대해 GB당 $3.50
속성 모니터링이 사용 설정된 경우 BigQuery 스토리지 또는 Batch Explain과 같이 모델 모니터링과 함께 사용하는 다른 Google Cloud 제품에 대한 요금
Vertex AI 모델 모니터링은 us-central1, europe-west4, asia-east1, asia-southeast1 리전에서 지원됩니다. 모든 리전의 가격이 동일합니다.
데이터 크기는 TfRecord 형식으로 변환된 후 측정됩니다.
Vertex AI 모델 모니터링 작업을 설정할 때 학습 데이터 세트에는 일회성 요금이 발생합니다.
예측 데이터 세트는 온라인 예측 서비스에서 수집된 로그로 구성됩니다. 예측 요청이 다른 기간에 도달하면 각 기간에 대한 데이터가 수집되고 각 예측 기간에 대해 분석된 데이터의 합계가 요금을 계산하는 데 사용됩니다.
예: 데이터 과학자가 모델에 속하는 예측 트래픽에서 모델 모니터링을 실행합니다.
모델은 BigQuery 데이터 세트에서 학습됩니다. TfRecord로 변환한 후의 데이터 크기는 1.5GB입니다.
오후 1시~오후 2시에 로깅되는 예측 데이터는 0.1GB이고 오후 3시~오후 4시는 0.2GB입니다.
앞서 언급한 비용 외에도 사용하는 모든 Google Cloud 리소스에 대한 비용도 지불해야 합니다.
예를 들면 다음과 같습니다.
데이터 분석 서비스: 노트북 내에서 SQL 쿼리를 실행하면 BigQuery 비용이 발생합니다(BigQuery 가격 책정 참조).
고객 관리 암호화 키: 고객 관리 암호화 키를 사용할 때 비용이 발생합니다. 관리형 노트북 또는 사용자 관리형 노트북 인스턴스가 Cloud Key Management Service 키를 사용할 때마다 해당 작업에 Cloud KMS 키 작업 요금이 청구됩니다(Cloud Key Management Service 가격 책정 참조).
Deep Learning Containers, Deep Learning VM 및 AI Platform Pipelines
Deep Learning Containers, Deep Learning VM Image, AI Platform Pipelines의 경우 사용한 컴퓨팅 및 스토리지 리소스를 기준으로 가격이 계산됩니다.
이러한 리소스에는 현재 Compute Engine 및 Cloud Storage에 대한 요금과 동일한 요율로 요금이 부과됩니다.
컴퓨팅 및 스토리지 비용 외에도 사용 중인 모든 Google Cloud 리소스에 대한 비용도 청구됩니다.
예를 들면 다음과 같습니다.
데이터 분석 서비스: 노트북 내에서 SQL 쿼리를 실행하면 BigQuery 비용이 발생합니다(BigQuery 가격 책정 참조).
고객 관리 암호화 키: 고객 관리 암호화 키를 사용할 때 비용이 발생합니다. 관리형 노트북 또는 사용자 관리형 노트북 인스턴스가 Cloud Key Management Service 키를 사용할 때마다 해당 작업에 Cloud KMS 키 작업 요금이 청구됩니다(Cloud Key Management Service 가격 책정 참조).
데이터 라벨 지정
Vertex AI를 사용하면 커스텀 머신러닝 모델을 학습시키는 데 사용할 데이터 모음에 대한 수동 라벨링을 요청할 수 있습니다.
서비스 가격은 라벨 지정 작업 유형에 따라 계산됩니다.
일반 라벨링 작업의 경우 가격은 주석 단위의 수에 따라 결정됩니다.
이미지 분류 작업의 경우 단위는 이미지 수와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 수동 라벨러가 3명인 이미지는 1 * 3 = 3단위로 계산됩니다. 단일 라벨 및 멀티 라벨 분류의 가격은 동일합니다.
이미지 경계 상자 작업의 경우 단위는 이미지에서 식별된 경계 상자 수와 수동 라벨러의 수에 따라 결정됩니다.
예를 들어 경계 상자가 2개이고 수동 라벨러가 3명인 이미지는 2 * 3 = 6단위로 계산됩니다. 경계 상자가 없는 이미지에는 요금이 청구되지 않습니다.
이미지 분할/회전 상자/폴리라인/다각형 작업의 경우 단위는 이미지 경계 상자 태스크와 동일한 방식으로 결정됩니다.
동영상 분류 작업의 경우 단위는 비디오 길이(5초가 가격 단위)와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 수동 라벨러가 3명인 25초 동영상은 25 / 5 * 3 = 15단위로 계산됩니다. 단일 라벨 및 멀티 라벨 분류의 가격은 동일합니다.
동영상 객체 추적 작업의 경우 단위는 동영상에서 식별된 객체 수와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 객체가 2개이고 수동 라벨러가 3명인 동영상의 경우 2 * 3 = 6단위로 계산됩니다. 객체가 없는 동영상에는 요금이 청구되지 않습니다.
동영상 동작 인식 작업의 경우 단위는 동영상 객체 추적 작업과 동일한 방식으로 결정됩니다.
텍스트 분류 작업의 경우 단위는 텍스트 길이(50단어가 가격 단위)와 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 단어가 100개이고 수동 라벨러가 3명인 텍스트는 100 / 50 * 3 = 6단위로 계산됩니다. 단일 라벨 및 멀티 라벨 분류의 가격은 동일합니다.
텍스트 감정 분석 작업의 경우 단위는 텍스트 분류 작업과 동일한 방식으로 결정됩니다.
텍스트 항목 추출 작업의 경우 단위는 텍스트 길이(50단어가 가격 단위), 식별된 항목 수, 수동 라벨러의 수에 따라 결정됩니다. 예를 들어 단어가 100개, 식별된 항목이 2개, 수동 라벨러가 3명인 텍스트의 경우 100 / 50 * 2 * 3 = 12단위로 계산됩니다. 항목이 없는 텍스트에는 요금이 청구되지 않습니다.
이미지/동영상/텍스트 분류 및 텍스트 감정 분석 작업의 경우 라벨 세트 크기가 너무 크면 수동 라벨러가 클래스를 추적하지 못할 수 있습니다. 따라서 한 번에 최대 20개의 클래스를 수동 라벨러에게 전송합니다. 예를 들어 라벨링 작업의 라벨 세트 크기가 40이면 각 데이터 항목은 사람의 검토를 위해 40 / 20 = 2회 전송되며 위에서 계산된 요금의 2배가 청구됩니다.
커스텀 라벨러 기능을 사용 설정하는 라벨 지정 작업의 경우 각 데이터 항목이 커스텀 라벨러 1개 단위로 계산됩니다.
수동 라벨러의 도움 없이 모델에서 생성된 주석이 있는 데이터 항목의 능동적 학습 라벨 지정 작업의 경우 각 데이터 항목은 능동적 학습 1개 단위로 계산됩니다.
수동 라벨러가 생성한 주석이 있는 데이터 항목의 능동적 학습 라벨 지정 작업의 경우 위에서 설명한 대로 각 데이터 항목이 일반 라벨 지정 작업으로 계산됩니다.
아래 표는 각 목표에 나열된 단위를 기준으로 수동 라벨러당 1,000개 단위의 가격을 나타냅니다. 등급 1 가격은 각 Google Cloud 프로젝트에서 월간 첫 50,000개의 단위에 적용됩니다. 등급 2 가격은 프로젝트에서 월간 다음 950,000개 단위에 적용됩니다(최대 1,000,000개 단위).
월간 1,000,000개를 초과하는 단위의 가격은 직접 문의해 주세요.
데이터 유형
목표
단위
등급 1
등급 2
이미지
분류
이미지
$35
$25
경계 상자
경계 상자
$63
$49
세분화
세그먼트
$870
$850
회전 상자
경계 상자
$86
$60
다각형/폴리라인
다각형/폴리라인
$257
$180
동영상
분류
5초 동영상
$86
$60
객체 추적
경계 상자
$86
$60
동작 인식
30초 동영상의 이벤트
$214
$150
텍스트
분류
50단어
$129
$90
감정
50단어
$200
$140
항목 추출
항목
$86
$60
능동적 학습
전체
데이터 항목
$80
$56
커스텀 라벨러
전체
데이터 항목
$80
$56
Cloud Storage 필수 사용
이 문서에 설명된 비용 외에도 Vertex AI 수명 주기 동안 Cloud Storage 버킷에 데이터와 프로그램 파일을 저장하는 데 드는 비용도 있습니다. 이 같은 저장에는 Cloud Storage 가격 책정 정책이 적용됩니다.
Cloud Storage 사용이 필요한 경우는 다음과 같습니다.
커스텀 학습 모델의 학습 애플리케이션 패키지 스테이징
학습 입력 데이터 저장
학습 작업의 출력 저장.
Vertex AI에서는 이러한 항목을 장기간 저장할 필요가 없습니다.
작업이 완료되는 즉시 파일을 삭제해도 됩니다.
무료 리소스 관리 작업
AI Platform에서 제공되는 리소스 관리 작업은 무료로 사용할 수 있습니다. 이러한 작업 중 일부는 AI Platform 할당량 정책의 제한을 받습니다.
리소스
무료 작업
models
create, get, list, delete
versions
create, get, list, delete, setDefault
jobs
get, list, cancel
operations
get, list, cancel, delete
Google Cloud 비용
분석할 이미지를 Cloud Storage에 저장하거나 다른 Google Cloud 리소스를 Vertex AI와 함께 사용하는 경우 해당 서비스의 사용 요금도 청구됩니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["Hard to understand","hardToUnderstand","thumb-down"],["Incorrect information or sample code","incorrectInformationOrSampleCode","thumb-down"],["Missing the information/samples I need","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],[],[],[]]