2026년 봄, 디자이너가 영상을 다루는 방식이 한 번 더 결정적으로 바뀌었다. 구글 랩스의 구글 플로우(Google Flow)가 Veo 3.1을 품으면서, 이제는 한 줄의 프롬프트와 몇 장의 레퍼런스 이미지만으로 컷, 카메라, 사운드, 인물의 일관성까지 한 번에 디자인할 수 있다. 이 글은 영상 도구의 일반 리뷰가 아니라 — 디자이너의 시점에서 구글 플로우가 시각 작업의 작동 방식 자체를 어떻게 다시 짜고 있는지를 정리한 노트다. labs.google/fx/ko/tools/flow로 들어가면 바로 시작할 수 있고, Google AI Pro 또는 Ultra 구독이 있어야 전체 기능을 쓸 수 있다.
구글 플로우는 무엇이고, 왜 디자이너에게 중요한가

구글 플로우는 Veo 3과 Veo 3.1 영상 생성 모델 위에 편집과 자산 관리 레이어를 얹은 워크스페이스다. 구글의 공식 표현은 “Veo가 엔진이고, 플로우가 조종석”이다. 이 비유가 디자이너에게 중요한 이유는 분명하다. 지금까지 영상을 만든다는 것은 모델 한 번 호출 → 결과 다운로드 → 다른 도구로 가져가 편집의 반복이었지만, 구글 플로우는 그 반복을 한 캔버스에 묶어버렸다. 디자이너가 머릿속에 가진 한 편의 시퀀스를 도구를 갈아타지 않고 한 곳에서 시각화할 수 있다는 뜻이다.
모션 디자이너, 광고 크리에이티브, 브랜드 디자이너, UX 디자이너가 이 도구에 주목해야 할 핵심 이유는 다섯 가지다. 첫째, 카메라를 직접 디자인할 수 있다. 둘째, 인물·오브젝트·스타일의 일관성을 보장한다. 셋째, 시작 프레임과 끝 프레임을 던지면 그 사이를 만들어 준다. 넷째, 한 클립을 1분 이상으로 늘리는 Extend가 있다. 다섯째, 사운드와 대사가 모델 안에서 함께 생성된다. 하나씩 풀어 본다.
구글 플로우 변화 1 — 카메라 컨트롤, 디자이너가 다시 감독이 된다

전 세대 영상 생성 도구의 가장 큰 한계는 “프롬프트로 카메라를 통제하지 못한다”는 점이었다. 디자이너가 머릿속에 그린 카메라 무빙(트럭, 팬, 틸트, 줌 인, 핸드헬드)이 결과물에 들어맞지 않으면, 같은 프롬프트를 수십 번 반복해야 했다. 구글 플로우의 카메라 컨트롤은 이 좌절을 정확히 겨냥한다. 카메라 모션, 앵글, 시점을 별도 컨트롤로 직접 지정할 수 있고, 같은 프롬프트에서도 카메라만 바꿔가며 변형을 빠르게 비교할 수 있다.
디자이너에게 이건 단순한 편의성이 아니다. 시각적 의도를 언어로 한 번, 카메라 컨트롤로 한 번 — 두 번 입력함으로써 결과물의 분산이 줄어든다. 광고 영상 한 컷의 카메라 무빙을 30번 시도하던 시대에서, 5번 안에 의도에 맞는 컷을 얻는 시대로 옮겨가는 변화다. 모션 디자인 학습의 진입 장벽이 낮아지는 동시에, 카메라 언어를 정확히 아는 디자이너의 가치가 오히려 더 커지는 역설이 시작된다.
변화 2 — Ingredients to Video, 캐릭터·오브젝트·스타일의 일관성

플로우의 가장 디자이너 친화적인 기능은 Ingredients to Video다. 캐릭터 이미지 한 장, 제품 사진 한 장, 분위기 보드 한 장을 “재료(ingredients)”로 등록하면, 그 재료들이 다음 컷에도 동일하게 등장한다. 같은 옷, 같은 얼굴, 같은 색감이 컷이 바뀌어도 유지된다는 뜻이다. 이전 세대의 영상 생성 모델이 가진 가장 심각한 약점 — 컷 사이의 캐릭터 드리프트 — 이 플로우 안에서는 거의 사라진다.
디자인 관점에서 이 기능은 두 가지 지점을 바꾼다. 한 가지는 브랜드 영상 제작이다. 같은 캐릭터, 같은 톤앤매너로 시리즈 콘텐츠 6편을 만드는 일이 단일 워크스페이스 안에서 가능해졌다. 다른 한 가지는 디자인 시안 제작이다. 자체 제작한 인물 일러스트나 컨셉 아트를 재료로 던지면, 그 디자인 언어가 영상 결과물에 그대로 반영된다. 디자이너가 만든 정지 이미지의 톤이 살아있는 영상으로 옮겨가는 통로가 만들어진 셈이다.
구글 플로우 변화 3 — Frames to Video, 두 장의 정지 화면 사이를 채운다

Frames to Video는 디자이너의 사고방식을 가장 정확히 닮은 기능이다. 시작 프레임 한 장과 끝 프레임 한 장을 주면, 그 사이의 트랜지션을 영상으로 채워 준다. 디자이너는 원래부터 “지금 상태”와 “변한 상태”를 키프레임 두 장으로 그리고, 그 사이를 시간 축으로 보간하는 사고에 익숙하다. 플로우는 이 사고 모델을 영상 도구에 그대로 이식했다.
실제 활용은 다양하다. 제품 사진 두 장(닫힌 상태, 열린 상태)을 주고 그 사이를 영상으로 만들 수 있고, 캐릭터의 정면 일러스트와 측면 일러스트 두 장을 주고 회전을 만들 수 있다. UI 모션 디자이너에게는 특히 유용하다 — 디자인 시안 두 장(이전 화면, 다음 화면)을 주면, 그 사이를 시각적 연결고리로 메우는 트랜지션을 5초 안에 얻는다. 이 정도 짧은 트랜지션을 직접 코딩하거나 AE에서 만드는 데에는 30분이 들었다.
변화 4 — Extend, 1분짜리 시퀀스를 한 워크스페이스에서

이전 세대 모델의 또 다른 약점은 짧은 클립 길이였다. 8초, 길어야 16초가 한계였다. 디자이너가 광고 한 편을 만들기에는 너무 짧았다. 플로우의 Extend는 한 클립을 1분 이상으로 늘릴 수 있게 했고, 늘어난 컷이 원본의 동작과 자연스럽게 이어지도록 모델이 보장한다. 이 차이는 디자이너가 영상 도구를 “프리뷰 만드는 보조 도구”에서 “최종 산출물 만드는 메인 도구”로 다시 분류하게 만드는 결정적 변곡점이다.
특히 SNS용 60초 광고, 브랜드 인트로 영상, 제품 데모 영상처럼 짧지만 한 시퀀스로 흘러야 하는 결과물에 직접 적용된다. 디자이너가 한 시퀀스를 끝까지 머릿속에서 그릴 수 있다면, 그것을 한 도구 안에서 한 시간 안에 결과물로 옮기는 일이 처음으로 가능해진 것이다.
구글 플로우 변화 5 — 사운드와 대사가 모델 안에서 함께 만들어진다

Veo 3의 가장 충격적인 변화는 사운드 생성이 모델에 내장됐다는 점이다. 효과음, 환경 소음, 대사까지 영상과 함께 생성된다. 디자이너 입장에서 이 기능의 의미는 단순하지 않다. 시각만 디자인하던 시대에서, 음의 디자인까지 한 번의 호출로 통합된 시대로 넘어간다는 뜻이다.
물론 한계도 있다. 음의 톤, 음향 디자인의 의도, 대사 톤은 아직 영상의 정밀도를 따라잡지 못한다. 그러나 SNS용 짧은 광고, 인스타 릴스, 틱톡용 콘텐츠처럼 “그 자리에서 끝나야 하는” 영상에서는 이미 충분히 쓸 수 있는 품질이다. 디자이너가 사운드 디자이너의 손을 거치지 않고 60초짜리 한 편을 마무리할 수 있는 시대 — 이것이 의미하는 변화는 디자이너의 책임 범위가 더 넓어진다는 점이다.
구글 플로우 디자이너의 5단계 워크플로우 — 실제로 쓰는 방법
- 1단계 — 레퍼런스 보드 정리. 캐릭터, 제품, 분위기 이미지 5~7장을 정리한다. 이게 곧 Ingredients가 된다.
- 2단계 — 시작·끝 키프레임. 60초 시퀀스라면 시작 프레임과 끝 프레임 한 쌍을 미리 디자인한다. Frames to Video의 입력이 된다.
- 3단계 — 카메라 컨트롤로 첫 컷. 프롬프트와 카메라 모션을 함께 설정해 첫 컷을 뽑는다. 변형 3~5개를 만들어 비교한다.
- 4단계 — Extend로 시퀀스 잇기. 첫 컷을 기준으로 다음 컷을 Extend 또는 Frames to Video로 이어 붙인다. 캐릭터 일관성은 Ingredients가 보장한다.
- 5단계 — 사운드 점검과 후처리. 모델이 생성한 사운드가 의도와 맞지 않으면, 외부 도구에서 보강한다. 영상 자체는 그대로 유지한다.
구글 플로우의 한계와 실무에서 주의할 점
완벽한 도구는 아니다. 첫째, Google AI Pro/Ultra 구독이 필요하다. 단발성 프로젝트에 가벼운 마음으로 쓰기에는 가격대가 부담된다. 둘째, 결과물의 저작권과 상업적 활용 범위는 구글 약관을 반드시 확인해야 한다. 셋째, 한국어 프롬프트의 정밀도는 영어 대비 아직 낮다. 핵심 디렉션은 영어로 입력하고, 한국어는 보조 설명으로 쓰는 편이 안정적이다. 넷째, 사람의 손, 글자 디테일, 한글 텍스트 표현은 여전히 약점이다. 자막은 후작업으로 분리하는 편을 권한다.
또 한 가지 — 디자이너가 도구의 설득력에 너무 빠르게 휩쓸리지 않는 게 중요하다. 플로우는 “그럴듯한 결과물”을 너무 빨리 만들어 준다. 그 결과물이 정말 의도에 맞는지, 브랜드 톤과 어긋나지 않는지를 검토하는 시간은 결과물을 빠르게 얻은 만큼 더 길게 잡아야 한다. 도구가 빨라질수록, 디자이너의 판단력이 결과물의 품질을 결정한다.
구글 플로우가 디자이너의 일상에 안착하는 방식
도구는 이름만 듣고 평가하기보다 손에 두 주 정도 쥐어 본 뒤에 판단해야 한다. 구글 플로우 역시 그렇다. 첫 주는 학습 곡선이 있다 — Ingredients 보드를 어떻게 묶을지, 카메라 컨트롤을 어디까지 사용할지, Frames to Video와 Extend를 언제 분기할지에 대한 자기만의 결을 잡는 시간이다. 두 번째 주에 들어서면 도구가 손에 붙기 시작하고, 한 시간이 걸리던 컷이 15분 안에 끝나기 시작한다. 세 번째 주가 되면 구글 플로우가 디자이너의 도구함 한가운데로 들어와 있다.
실제 디자이너 커뮤니티의 사용 사례를 보면 흥미롭다. 짧은 광고 영상을 만드는 프리랜서, 브랜드 영상 시안을 빠르게 보여줘야 하는 인하우스 디자이너, 모바일 앱의 모션 디자인을 시뮬레이션해 보고 싶은 UX 디자이너, 자기 일러스트를 영상으로 옮기고 싶은 그림 작가까지 — 각자의 결로 구글 플로우를 쓰고 있다. 도구의 가치는 자체 기능에서 완성되지 않고, 사용자의 직무가 그 도구와 만나는 자리에서 정확히 정해진다.
한 가지 권하고 싶은 건 — 구글 플로우를 처음 쓸 때, 큰 프로젝트보다 작은 실험을 먼저 하라는 것이다. 5초짜리 한 컷, 10초짜리 트랜지션 한 개. 이 작은 단위에서 도구의 결을 익히고, 그 위에서 한 편의 시퀀스를 쌓아 올리는 흐름이 실패를 가장 적게 만든다.
디자이너의 도구함이 다시 정렬되는 시기
구글 플로우는 영상 생성 도구가 “프리뷰 도구”에서 “프로덕션 도구”로 분류가 바뀌는 결정적 분기점이다. 카메라 컨트롤, Ingredients to Video, Frames to Video, Extend, 사운드 통합 — 다섯 개의 변화를 합치면, 60초 한 편의 영상을 한 명의 디자이너가 한 워크스페이스 안에서 처음부터 끝까지 디자인할 수 있다는 결론에 닿는다. 바로 전 글에서 다룬 2026 여름 패션 7가지 무드가 옷의 결의 문제라면, 플로우는 영상 도구함의 결을 바꾸는 변화다.
한 가지만 강조하고 싶다 — 도구가 아무리 빨라져도, 디자이너의 본질은 변하지 않는다. 어떤 카메라가 어떤 감정을 만드는지, 어떤 색이 어떤 분위기를 부르는지, 어떤 컷이 다음 컷을 끌어당기는지를 아는 사람이 결국 좋은 영상을 만든다. 도구는 그 판단을 더 빠르게, 더 자주 시험할 수 있게 도울 뿐이다. 외부 자료는 구글 공식 블로그의 플로우 출시 공지와 Veo 3.1 플로우 업데이트 공지를 참고했다.
