문서 목적: 클라이언트에게 통합 데이터 거버넌스 체계 구축의 필요성과 방안을 설명하기 위한 제안 참고 문서
대상 독자: 사업 제안 담당자
최종 수정: 2026년 4월
SCM(차세대 공급망관리) 프로젝트의 Staging(스테이징) 영역 — 즉, 기존 시스템과 빅데이터 플랫폼 사이에서 데이터를 전달하고 가공하는 중간 계층 — 을 대상으로, **데이터를 안전하고 체계적으로 관리하기 위한 거버넌스(관리 체계)**를 구축하는 것을 제안합니다.
[1차 사업] 2025년 4~6월 (3개월)
→ 빅데이터 플랫폼(CDP) 구축, 첫 번째 데이터 이관
[2차 사업] 2025년 7월 ~ 2026년 3월 (9개월)
→ 추가 데이터 이관, 데이터 처리 프로그램(API) 개발, 시스템 배포
[3차 사업] 2026년 6월 ~ 2027년 12월 (19개월) — 확정
→ 기존 시스템 유지·확장
[추가 제안] 2026년 6월 ~ (기간 미정) ← 본 문서의 대상
→ 통합 데이터 거버넌스 체계 구축
현재 시스템은 데이터를 저장하고 처리하는 기능은 잘 갖추어져 있지만, 데이터를 누가, 어떻게 사용하는지 관리하는 체계가 없습니다.
비유하자면, 건물은 잘 지었으나 출입 관리 시스템, 방문자 기록, 건물 안내 지도가 없는 상태입니다.
| 현재 상태 | 비유 | 위험성 |
|---|---|---|
| 사용자 계정 관리 없음 | 출입증 없이 누구나 들어올 수 있음 | 누가 접속했는지 파악 불가 |
| 통합 인증(SSO) 없음 | 각 방마다 다른 열쇠를 사용 | 사용자별 권한 관리 불가 |
| 데이터 접근 통제 없음 | 모든 방의 문이 열려 있음 | 비인가 접근 차단 불가 |
| 데이터 카탈로그 없음 | 건물 안내 지도가 없음 | 어떤 데이터가 어디에 있는지 파악 어려움 |
| 데이터 품질 관리 없음 | 건물 내 시설물 점검이 없음 | 잘못된 데이터가 업무에 사용될 수 있음 |
본 제안은 4개 영역으로 구성됩니다.
┌────────────────────────────────────────────────────────┐
│ │
│ 영역 A. 데이터 프록시 서비스 — 자체 개발 (제품화) │
│ 영역 B. 데이터 포털 — 맞춤 개발 │
│ 영역 C. 메타데이터/품질 관리 — 솔루션 도입 │
│ 영역 D. 공통 기반 체계 — 설계 + 구축 │
│ │
└────────────────────────────────────────────────────────┘
데이터 프록시 서비스란, 사용자가 데이터베이스에 접근할 때 반드시 거쳐야 하는 **중간 통로(프록시)**를 만드는 것입니다.
현재는 개발자들이 자신의 PC에 설치된 도구(DBeaver, Toad 등)로 데이터베이스에 직접 접속합니다. 이 경우 누가 언제 무엇을 조회했는지 기록이 남지 않습니다.
데이터 프록시를 도입하면, 모든 데이터 접근이 하나의 통로를 거치게 되므로 접근 기록, 권한 통제, SQL(데이터베이스 질의 명령어) 감사가 가능해집니다.
[사용자 PC 브라우저]
│
▼
[CloudBeaver] ─── 웹 브라우저에서 접속하는 데이터베이스 도구
│ (기존 DBeaver, Toad 등을 대체)
▼
[JDBC 프록시] ─── 모든 SQL 명령을 중간에서 가로채어 기록
(P6Spy) (누가, 언제, 어떤 데이터를 조회했는지 자동 감사)
│
▼
[Trino] ─── 여러 종류의 데이터베이스를 하나의 창구에서 조회하는 엔진
│
▼
[Teiid] ─── 서로 다른 데이터베이스를 하나로 묶어주는 가상화 엔진
│
├── Oracle (기존 시스템)
├── Impala/Kudu (빅데이터)
├── HBase (빅데이터)
└── PostgreSQL, Valkey (기타)
| 소프트웨어 이름 | 용도 | 비용 |
|---|---|---|
| CloudBeaver | 웹 브라우저에서 데이터베이스에 접속하는 도구. PC 설치 없이 사용 가능 | 무료 (오픈소스) |
| Trino (트리노) | 여러 종류의 데이터베이스를 하나의 SQL 명령으로 조회할 수 있게 해주는 분산 질의 엔진 | 무료 (오픈소스) |
| Teiid (티아이드) | 서로 다른 데이터베이스들을 하나의 가상 데이터베이스로 통합해주는 소프트웨어 | 무료 (오픈소스) |
| P6Spy | 모든 데이터베이스 질의(SQL)를 중간에서 가로채어 기록하는 감사 도구 | 무료 (오픈소스) |
A.1. 접속 게이트웨이(Access Gateway) 구축
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| A.1.1. 웹 기반 DB 접속 환경 구축 | PC 설치 없이 브라우저에서 DB 조회 가능한 환경 제공 | CloudBeaver, Nginx(Reverse Proxy), TLS 1.3 |
| A.1.2. 접속 세션 관리 | 사용자별 세션 유지, 타임아웃, 동시 세션 제어 | Redis/Valkey(Session Store), OIDC Token Validation |
A.2. 분산 질의 엔진(Federated Query Engine) 구축
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| A.2.1. Trino 클러스터 구축 | Coordinator/Worker 노드 구성 및 성능 튜닝 | Trino, JVM Tuning(G1GC), Kubernetes StatefulSet |
| A.2.2. 데이터 소스 Catalog 연결 | Oracle, Hive, Kudu, HBase, PostgreSQL 커넥터 등록 | Trino Connectors(JDBC, Hive, Kudu, HBase, Iceberg) |
A.3. 데이터 가상화(Data Virtualization) 계층 구축
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| A.3.1. Virtual Database(VDB) 설계 | 이기종 DB를 단일 논리 스키마로 추상화 | Teiid, VDB DDL, Translator Framework |
| A.3.2. 소스 커넥터 구성 및 최적화 | 소스별 Push-down 최적화, Federation 튜닝 | Teiid Resource Adapters, JDBC/ODBC Driver |
A.4. SQL 감사(Audit) 체계 구축
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| A.4.1. JDBC 프록시 기반 쿼리 캡처 | 모든 SQL 실행을 가로채어 기록 | P6Spy, Log4j2(JSON Layout) |
| A.4.2. 감사 로그 수집/저장 파이프라인 | 로그 중앙 집계 및 장기 보관, 검색 | Fluent Bit, Apache Kafka, OpenSearch/Elasticsearch |
A.5. 제품화(Productization) 준비
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| A.5.1. 컨테이너 패키징 | 설치형 제품 형태로 이미지/차트 배포 | Docker, Helm Chart, Harbor(Container Registry) |
| A.5.2. 설치·배포 자동화 | 타 프로젝트 이식을 위한 자동화 스크립트 | Kubernetes Operator(Operator SDK), Ansible, GitOps(ArgoCD) |
데이터 포털이란, 사용자가 웹 브라우저를 통해 조직 내 어떤 데이터가 있는지 검색하고, 필요한 데이터를 신청하고, 승인받아 조회할 수 있는 통합 웹 사이트입니다.
현재는 데이터가 어디에 있는지 파악하려면 담당자에게 개별 문의해야 합니다. 데이터 포털을 구축하면 셀프서비스(자기 스스로 필요한 데이터를 찾아 사용) 환경이 만들어집니다.
┌──────────────────────────────────────────────┐
│ 데이터 포털 │
│ │
│ ┌─────────┐ ┌─────────┐ ┌──────────────┐ │
│ │ 데이터 │ │ 데이터 │ │ 접근 권한 │ │
│ │ 검색 │ │ 조회 │ │ 신청/승인 │ │
│ └─────────┘ └─────────┘ └──────────────┘ │
│ │
│ ┌─────────────┐ ┌───────────────────────┐ │
│ │ 품질 현황 │ │ 사업부별 현황 │ │
│ │ 대시보드 │ │ 대시보드 │ │
│ └─────────────┘ └───────────────────────┘ │
│ │
└──────────────────────────────────────────────┘
│ │
▼ ▼
[데이터 프록시] [메타데이터 관리]
(영역 A와 연계) (영역 C와 연계)
| 소프트웨어 이름 | 용도 | 비용 |
|---|---|---|
| Apache Superset (아파치 수퍼셋) | 데이터를 차트와 대시보드로 시각화하는 BI(비즈니스 인텔리전스) 도구. 데이터 포털 내에 탑재 | 무료 (오픈소스) |
| React 또는 Vue.js | 포털 화면(사용자 인터페이스)을 개발하는 웹 프레임워크 | 무료 (오픈소스) |
B.1. 프론트엔드(UI) 개발
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| B.1.1. UI 프레임워크 및 디자인 시스템 구축 | 포털 공통 컴포넌트, 테마, 접근성(WCAG) 대응 | React 18 + Next.js(SSR), TypeScript, Tailwind CSS, shadcn/ui |
| B.1.2. 클라이언트 상태 관리 및 API 연동 | 서버 상태 캐싱, 권한별 화면 렌더링 | Redux Toolkit, TanStack Query(React Query), Axios Interceptor |
B.2. 백엔드(API) 개발
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| B.2.1. RESTful / GraphQL API 서비스 개발 | 비즈니스 로직, 도메인 모델 구현 | Spring Boot 3(Java 21) 또는 FastAPI(Python 3.12), OpenAPI 3.1 |
| B.2.2. API Gateway 및 인증/인가 연동 | 인증 토큰 검증, Rate Limiting, CORS | Spring Cloud Gateway 또는 Kong Gateway, OIDC(Keycloak), JWT |
B.3. 데이터 검색(Data Discovery) 기능
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| B.3.1. 카탈로그 연동 전역 검색 | 테이블·컬럼·용어 기반 Full-text 검색 | OpenMetadata REST API, Elasticsearch/OpenSearch |
| B.3.2. 데이터 미리보기(Preview) | 승인된 사용자에 한해 샘플 데이터 조회 | Trino REST API, 영역 A 프록시 연동 |
B.4. 권한 신청/승인 워크플로우
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| B.4.1. 워크플로우 엔진 도입 | 다단계 결재 플로우, 승인 이력 관리 | Camunda Platform 8 또는 Temporal.io, BPMN 2.0 |
| B.4.2. 알림(Notification) 연동 | 신청·승인·반려 상태를 실시간 통지 | MS Teams/Slack Incoming Webhook, SMTP(Email), WebSocket |
B.5. 시각화 대시보드 탑재
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| B.5.1. Apache Superset 임베드(Embed) | 포털 내 iframe/SDK 방식 차트 탑재 | Apache Superset, Embedded SDK, Guest Token |
| B.5.2. 역할(Role)별 대시보드 구성 | 사업부·직무별 대시보드 권한 분리 | Superset RBAC, Row-Level Security, Keycloak Role Mapping |
메타데이터란 "데이터에 대한 데이터"입니다. 예를 들어, "매출 테이블"이라는 데이터가 있다면, 이 테이블의 이름, 컬럼 구성, 소유자, 생성일, 어디서 왔는지(데이터 흐름) 등의 정보가 메타데이터입니다.
메타데이터 관리 시스템은 조직 내 모든 데이터 자산을 목록화하고, 데이터의 흐름을 추적하며, 데이터의 품질을 관리하는 시스템입니다.
| 소프트웨어 이름 | 용도 | 비용 |
|---|---|---|
| OpenMetadata (오픈메타데이터) | 데이터 카탈로그(데이터 자산 목록), 데이터 리니지(데이터 흐름 추적), 데이터 품질 프로파일링(자동 검증), 거버넌스 정책을 통합 관리하는 플랫폼. 100개 이상의 데이터 소스와 연동 가능 | 무료 (오픈소스) |
| Great Expectations (그레이트 익스펙테이션즈) | 데이터 품질을 자동으로 검증하는 도구. "이 컬럼에 빈 값이 없어야 한다", "이 값은 0보다 커야 한다" 등의 규칙을 정의하고 자동 검사 | 무료 (오픈소스) |
오픈소스 대신 상용 솔루션을 선택할 수도 있습니다. 아래는 비교 검토 대상입니다.
국내 솔루션
| 솔루션명 | 제공 업체 | 주요 기능 |
|---|---|---|
| DATAWARE (데이터웨어) | 엔코아 | 메타데이터, 데이터 품질, 영향도 분석을 하나의 패키지로 제공 |
| TeraONE (테라원) | 데이터스트림즈 | 데이터 패브릭 기반 통합 데이터 관리 플랫폼 |
| MetaCatalog + DQMiner | GTOne | 데이터 카탈로그 서비스와 데이터 품질 관리를 각각 제공 |
글로벌 솔루션
| 솔루션명 | 제공 업체 | 주요 기능 |
|---|---|---|
| IDMC | Informatica (인포매티카) | 클라우드 기반 데이터 관리 통합 플랫폼 (카탈로그, 품질, MDM 등) |
| Collibra Platform | Collibra (콜리브라) | 데이터 거버넌스 전문 플랫폼 (Gartner 평가 선두 업체) |
| Atlan | Atlan (아틀란) | AI 기반 데이터 거버넌스 플랫폼 |
[도입 전] [도입 후]
데이터가 어디 있지? 검색 한번으로 찾기
→ 담당자에게 물어봐야 함 → 데이터 카탈로그
이 데이터가 정확한 건가? 자동으로 품질 검증
→ 확인할 방법이 없음 → 품질 대시보드
데이터가 어디서 왔지? 흐름을 한눈에 파악
→ 추적이 불가능 → 데이터 리니지
C.1. 데이터 카탈로그(Data Catalog) 구축
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| C.1.1. 카탈로그 플랫폼 배포 | 저장소·검색엔진 포함 HA 구성 | OpenMetadata, PostgreSQL(MetaStore), OpenSearch, Kubernetes Helm |
| C.1.2. 메타데이터 수집 커넥터 구성 | 소스 시스템 스키마·통계 자동 수집 | OpenMetadata Ingestion Framework(Python), Airflow Scheduler, JDBC/REST 커넥터 |
C.2. 데이터 리니지(Lineage) 관리
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| C.2.1. SQL 기반 자동 리니지 파싱 | 쿼리 로그 분석을 통한 컬럼 단위 리니지 추출 | OpenLineage, sqllineage, ANTLR SQL Parser |
| C.2.2. 파이프라인/ETL 리니지 수집 | 배치·스트리밍 작업의 입출력 관계 추적 | Apache Airflow + OpenLineage Provider, Apache NiFi, Marquez |
C.3. 데이터 품질(Data Quality) 관리
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| C.3.1. 품질 규칙(Expectation) 정의 | 완전성·유일성·유효성·정합성 등 규칙 작성 | Great Expectations(Expectation Suite), Soda Core(대안) |
| C.3.2. 품질 검증 자동화·스케줄링 | 정기 실행 및 결과 리포팅, 임계치 알람 | GX Checkpoints, Airflow DAG, Slack/Email Alert |
C.4. 비즈니스 용어집(Glossary) 및 분류(Classification)
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| C.4.1. Glossary/Tag 체계 설계 | 업무 용어 표준화, 자산과의 매핑 | OpenMetadata Glossary, Term Taxonomy |
| C.4.2. 민감정보(PII) 자동 분류 | 개인정보·기밀 데이터 태깅 자동화 | OpenMetadata Auto Classification, Regex/NER 기반 PII Detection, Presidio(대안) |
C.5. 데이터 소유권/스튜어드십 체계
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| C.5.1. Data Owner/Steward 지정 | 도메인·자산별 책임자 매핑 및 SLA 정의 | OpenMetadata Teams/Roles, RACI Matrix |
| C.5.2. 거버넌스 정책 결재 연동 | 정책 변경 이력·승인 프로세스 연계 | OpenMetadata Policies/Rules, 영역 B 워크플로우(Camunda) 연동 |
영역 A, B, C가 모두 올바르게 작동하기 위한 기초 인프라입니다. 건물로 비유하면 전기, 수도, 통신, 경비 시스템에 해당합니다.
| 소프트웨어 이름 | 용도 | 왜 필요한가 | 비용 |
|---|---|---|---|
| Keycloak (키클로크) | 통합 인증 및 계정 관리 시스템. 모든 시스템에 하나의 아이디/비밀번호로 로그인할 수 있게 해주는 SSO(Single Sign-On, 통합 인증) 플랫폼 | 현재 계정 관리 시스템이 전혀 없음. 누가 접속하는지 파악 불가 | 무료 (오픈소스) |
| OPA (Open Policy Agent, 오픈 폴리시 에이전트) | 접근 정책 엔진. "이 사용자는 이 데이터에 접근할 수 있는가?"를 판단하는 규칙을 코드로 관리 | 데이터 및 시스템 접근에 대한 통제 정책이 없음 | 무료 (오픈소스) |
| HashiCorp Vault (해시코프 볼트) | 비밀번호, API 키(프로그램 간 통신에 사용하는 인증 키), 인증 토큰 등을 안전하게 중앙 관리하는 시스템 | 현재 비밀번호가 프로그램 코드나 설정 파일에 직접 기록되어 있어 보안 위험 존재 | 무료 (오픈소스 커뮤니티 버전) |
| 소프트웨어 | 현재 상태 | 확장 내용 |
|---|---|---|
| Prometheus (프로메테우스) — 시스템 지표(CPU, 메모리 등) 수집 도구 | 일부 시스템만 수집 | 전체 시스템으로 수집 범위 확대 |
| Loki (로키) — 로그(시스템 기록) 수집 도구 | 일부 시스템만, CDP 미포함 | CDP 포함 전체 시스템으로 확대 |
| Grafana (그라파나) — 대시보드(시각화 화면) 도구 | PM이 직접 구성한 대시보드 | 거버넌스 관점 대시보드 추가 |
D.1. 통합 인증(IAM) 구축
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| D.1.1. Keycloak Realm 설계 및 구축 | 사용자·그룹·역할 모델 정의, HA 구성 | Keycloak 26.x, PostgreSQL(Backend Store), Infinispan Cache |
| D.1.2. SSO(통합 로그인) 및 외부 디렉터리 연동 | 기존 사내 AD/LDAP 사용자 통합 | OIDC/SAML 2.0, LDAP/Active Directory Federation, MFA(TOTP/WebAuthn) |
D.2. 인가(Authorization) 정책 엔진
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| D.2.1. 정책(Policy-as-Code) 작성 | 데이터·API 접근 규칙을 선언형 코드로 정의 | Open Policy Agent(OPA), Rego 언어, RBAC/ABAC 모델 |
| D.2.2. 정책 배포 및 버전 관리 | 정책 변경 이력 추적, 롤백 체계 | OPA Bundle Server, Git(GitOps), ArgoCD, Kyverno(대안) |
D.3. 시크릿(Secret) 관리
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| D.3.1. Vault 클러스터 구축 | 고가용성·자동 봉인 해제 구성 | HashiCorp Vault(Community), Raft Storage, Auto-Unseal(Transit/KMS) |
| D.3.2. 애플리케이션 연동 및 동적 시크릿 발급 | DB 비밀번호 자동 로테이션, K8s 인증 연동 | Vault Agent Sidecar, Vault CSI Driver, Kubernetes Auth Method, Dynamic Database Secrets |
D.4. 관측성(Observability) 확장
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| D.4.1. 메트릭(Metrics) 수집 범위 확대 | 전체 시스템 및 거버넌스 컴포넌트 지표 수집 | Prometheus, Node Exporter, JMX Exporter, Kafka Exporter, OpenMetrics |
| D.4.2. 로그(Log) 수집 확장 — CDP 포함 | 하둡·Kafka·애플리케이션 로그 중앙 집계 | Loki, Promtail, Fluent Bit, Vector(대안) |
D.5. 거버넌스 대시보드 및 알림 체계
| 하위 태스크 | 세부 내용 | 적용 기술 |
|---|---|---|
| D.5.1. 거버넌스 관점 대시보드 구성 | 접근·품질·리니지 KPI 통합 뷰 제공 | Grafana, PromQL, LogQL, Dashboard as Code(Grafonnet) |
| D.5.2. 이상 감지 및 알림 연동 | 임계치 초과·이상 접근 실시간 알림 | Grafana Alerting, Prometheus Alertmanager, MS Teams/Slack/Email, PagerDuty(선택) |
도입 후 전체 시스템이 어떻게 연결되는지를 보여주는 그림입니다.
┌──────────────────────────────────────────────────────────────────┐
│ │
│ [Keycloak — 통합 인증] │
│ 모든 사용자가 하나의 아이디로 로그인 │
│ │ │ │ │ │
│ ▼ ▼ ▼ ▼ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────────┐ │
│ │데이터 │ │데이터 │ │메타데이터 │ │모니터링 │ │
│ │프록시 │ │포털 │ │관리 │ │(Grafana) │ │
│ │서비스 │ │ │ │(Open │ │ │ │
│ │ │ │(Superset │ │Metadata) │ │ │ │
│ │(Trino │ │ 포함) │ │ │ │ │ │
│ │+Teiid │ │ │ │ │ │ │ │
│ │+P6Spy) │ │ │ │ │ │ │ │
│ └────┬─────┘ └────┬─────┘ └────┬─────┘ └──────────────┘ │
│ │ │ │ │
│ ▼ ▼ ▼ │
│ ┌──────────────────────────────────────────┐ │
│ │ OPA — 접근 정책 엔진 │ │
│ │ "누가 어떤 데이터에 접근 가능한지" 판단 │ │
│ └──────────────────────────────────────────┘ │
│ │ │
│ ▼ │
│ ┌──────────────────────────────────────────┐ │
│ │ HashiCorp Vault — 비밀번호 중앙 관리 │ │
│ │ 모든 시스템의 인증 정보를 안전하게 보관 │ │
│ └──────────────────────────────────────────┘ │
│ │ │
│ ▼ │
│ ┌──────────────────────────────────────────┐ │
│ │ 데이터 저장소 (변경 없이 유지) │ │
│ │ │ │
│ │ Oracle Impala/Kudu HBase │ │
│ │ (기존 시스템) (빅데이터) (빅데이터) │ │
│ │ HDFS Kafka │ │
│ └──────────────────────────────────────────┘ │
│ │
└──────────────────────────────────────────────────────────────────┘
| 현재 문제 | 도입 후 | 해당 영역 |
|---|---|---|
| 계정 관리 시스템 없음 | Keycloak으로 전체 사용자 계정을 통합 관리 | D. 공통 기반 |
| 데이터베이스 직접 접속으로 감사 불가 | 데이터 프록시를 통한 접근 경로 단일화 및 SQL 감사 | A. 프록시 |
| 데이터 위치 파악 어려움 | 데이터 카탈로그(OpenMetadata)로 검색/조회 | C. 메타/품질 |
| 데이터 품질 검증 없음 | Great Expectations로 자동 품질 검증 | C. 메타/품질 |
| 데이터 조회 시 담당자 의존 | 데이터 포털에서 셀프서비스 조회 | B. 포털 |
| 비밀번호 관리 취약 | HashiCorp Vault로 중앙 관리 | D. 공통 기반 |
영역 A. 데이터 프록시 서비스 — 4명
| 역할 | 인원 | 담당 업무 |
|---|---|---|
| 설계 담당자 (아키텍트) | 1명 | 전체 구조 설계 및 기술 의사결정. Trino, Teiid, Kubernetes 전문성 필요 |
| 프로그램 개발자 | 2명 | 프록시 서비스 개발. Java(자바), Python(파이썬) 프로그래밍 |
| 시스템 운영자 | 1명 | Kubernetes(쿠버네티스) 환경 배포 및 운영, CloudBeaver 설정 |
영역 B. 데이터 포털 — 3명
| 역할 | 인원 | 담당 업무 |
|---|---|---|
| 웹 개발자 | 2명 | 포털 화면 및 서버 개발. React(리액트) 또는 Vue.js(뷰제이에스) 화면 개발, Python(파이썬) 또는 Java(자바) 서버 개발 |
| 데이터 시각화 담당자 | 1명 | Apache Superset(아파치 수퍼셋) 대시보드 구성, 데이터 질의(SQL) 작성 |
영역 C. 메타데이터/품질 관리 — 3명
| 역할 | 인원 | 담당 업무 |
|---|---|---|
| 데이터 관리 엔지니어 | 2명 | OpenMetadata(오픈메타데이터) 설치/운영, 데이터 소스 연결, 메타데이터 수집 설정 |
| 데이터 품질 담당자 | 1명 | Great Expectations(그레이트 익스펙테이션즈) 품질 규칙 작성, 자동 검증 설정 |
영역 D. 공통 기반 체계 — 2명
| 역할 | 인원 | 담당 업무 |
|---|---|---|
| 보안/인프라 담당자 | 1명 | Keycloak(키클로크) 인증 시스템, HashiCorp Vault(해시코프 볼트) 비밀번호 관리, OPA(오픈 폴리시 에이전트) 정책 설정 |
| 모니터링 담당자 | 1명 | Prometheus(프로메테우스), Loki(로키), Grafana(그라파나) 모니터링 확장 |
프로젝트 관리 — 1명
| 역할 | 인원 | 담당 업무 |
|---|---|---|
| PM (프로젝트 매니저) | 1명 | 전체 프로젝트 일정, 품질, 인력 관리 |
| 영역 | 인원 |
|---|---|
| A. 데이터 프록시 서비스 | 4명 |
| B. 데이터 포털 | 3명 |
| C. 메타데이터/품질 관리 | 3명 |
| D. 공통 기반 체계 | 2명 |
| PM (프로젝트 매니저) | 1명 |
| 합계 | 13명 |
| 번호 | 소프트웨어 이름 | 한글 설명 | 용도 | 비용 | 해당 영역 |
|---|---|---|---|---|---|
| 1 | CloudBeaver (클라우드비버) | 웹 기반 데이터베이스 접속 도구 | 웹 브라우저에서 DB 접속 | 무료 | A |
| 2 | Trino (트리노) | 분산 SQL 질의 엔진 | 여러 DB를 하나의 SQL로 조회 | 무료 | A |
| 3 | Teiid (티아이드) | 데이터 가상화 엔진 | 여러 DB를 하나의 가상 DB로 통합 | 무료 | A |
| 4 | P6Spy (피식스스파이) | JDBC 프록시 (SQL 감사 도구) | 모든 SQL 실행을 기록 | 무료 | A |
| 5 | Apache Superset (아파치 수퍼셋) | BI 시각화 도구 | 데이터 차트/대시보드 생성 | 무료 | B |
| 6 | OpenMetadata (오픈메타데이터) | 메타데이터 통합 관리 플랫폼 | 데이터 카탈로그, 리니지, 품질 관리 | 무료 | C |
| 7 | Great Expectations (그레이트 익스펙테이션즈) | 데이터 품질 검증 도구 | 데이터 품질 자동 검사 | 무료 | C |
| 8 | Keycloak (키클로크) | 통합 인증/계정 관리 시스템 | 사용자 계정 관리 및 통합 로그인 | 무료 | D |
| 9 | OPA (오픈 폴리시 에이전트) | 접근 정책 엔진 | 데이터/시스템 접근 권한 판단 | 무료 | D |
| 10 | HashiCorp Vault (해시코프 볼트) | 비밀번호/인증키 중앙 관리 | 비밀번호를 안전하게 보관 및 관리 | 무료 | D |
모든 소프트웨어는 **오픈소스(무료 공개 소프트웨어)**이며, 별도의 라이선스 구매 비용이 발생하지 않습니다.
다만, 설치·설정·운영·커스터마이징에는 전문 인력이 필요합니다.