//
바이브 코딩 너머 개발자 생존법 · 애디 오스마니
9장의 핵심 메시지는 명확하다. AI가 생성한 모든 코드는 맹신하지 말고, 의심하고, 체크리스트에 따라 검증해야 한다. 이것은 기술적인 조언일 뿐 아니라 윤리적인 원칙이기도 하다. AI가 만든 코드를 검증 없이 프로덕션에 배포하는 것은 사용자에게 미검증 소프트웨어를 제공하는 행위다.
저자는 바이브 코딩이 확산되면서 수면 위로 떠오른 윤리적 쟁점을 네 가지 축으로 정리한다.
AI 모델은 오픈소스 코드를 포함한 방대한 코드베이스로 학습된다. AI가 생성한 코드가 학습 데이터의 특정 코드를 그대로 또는 유사하게 재현하는 경우, 라이선스 위반이 될 수 있다. 특히 GPL과 같은 카피레프트 라이선스의 코드가 학습 데이터에 포함되어 있다면, AI가 해당 패턴을 재현했을 때 법적 의무가 발생할 가능성이 있다.
현재로서는 AI 생성 코드의 저작권에 대한 법적 판단이 확립되어 있지 않다. 개발자는 AI가 생성한 코드가 기존 오픈소스와 지나치게 유사하지 않은지 확인하고, 사용하는 AI 도구의 라이선스 정책을 파악해 두어야 한다.
AI를 활용하여 코드를 작성했다는 사실을 밝혀야 하는가? 이 질문에 대한 업계의 합의는 아직 형성되지 않았다. 저자는 최소한 팀 내에서는 AI 활용 사실을 투명하게 공유해야 한다고 주장한다.
투명성이 중요한 이유는 코드 리뷰의 맥락 때문이다. AI가 생성한 코드를 사람이 직접 작성한 것처럼 제출하면, 리뷰어는 작성자의 의도와 판단을 전제로 리뷰한다. 하지만 AI가 생성한 코드에는 작성자의 의도가 아닌 AI의 패턴 매칭 결과가 반영되어 있으므로, 리뷰의 관점이 달라져야 한다.
AI 모델의 학습 데이터에는 편향이 내재되어 있다. 코드 생성에서 이 편향은 여러 형태로 나타난다.
이러한 편향은 의식하지 않으면 자연스럽게 코드베이스에 스며든다. 개발자는 AI의 추천을 그대로 수용하지 말고, 해당 선택이 프로젝트에 적합한지 독립적으로 판단해야 한다.
저자는 바이브 코딩 시대의 개발자가 따라야 할 원칙을 다음과 같이 정리한다.
이 원칙들은 결국 하나의 문장으로 수렴한다. AI가 코드를 만들었다 해도, 그 코드의 주인은 이를 프로덕션에 배포한 개발자다.
바이브 코딩의 윤리적 쟁점은 기술이 아닌 태도의 문제다. AI를 도구로 활용하되 그 결과물을 맹신하지 않고, 투명하게 소통하며, 편향을 의식하고, 최종 책임을 지는 것이 AI 시대 개발자의 윤리적 자세다.