1  오리엔테이션

1.1 외식경영과 데이터 분석의 만남

1.1.1 외식경영의 본질은 감인가, 데이터인가

한 매장의 점장은 토요일 저녁에는 항상 바쁘니까 직원 셋을 더 넣어야 한다고 주장했다. 이유를 묻자 이렇게 말했다. “몸으로 느껴져요. 토요일은 유난히 손님이 몰려요.” 실제 매출 데이터를 분석해보니 이 매장은 금요일 저녁 매출이 더 높았고, 토요일은 방문객 수는 많지만 체류시간이 길어 테이블 회전율이 낮았다. 이로 인해 인건비 대비 순이익이 금요일보다 오히려 떨어졌다. 점장의 감각은 일부는 맞았지만, 의사결정을 위한 근거로는 부족했다.

외식업은 오랫동안 경험과 직관, 분위기와 사람 간의 관계에 의존해왔다. 하지만 디지털 전환이 빠르게 진행되면서 모든 활동이 데이터로 기록되고 있다. 매장 입구에 들어온 시간, 메뉴 선택 시간, 결제 수단, 대기 시간, 리뷰 작성 여부, 재방문까지 모든 흐름이 수치화되고 있다. 문제는 데이터를 수집하는 것보다, 그것을 해석하지 못해 묻히는 경우가 더 많다는 데 있다.

1.1.2 외식산업에 데이터를 적용하는 현실적 사례들

서울 강남의 한 프랜차이즈 카페는 점심시간 매출이 저조하다는 문제를 가지고 있었다. 경쟁 매장에 비해 위치도 나쁘지 않았고, 브랜드 인지도도 비슷했다. 매장에서는 ’직장인 유입이 적어서’라고 판단했다. 하지만 배달 앱 방문자 데이터를 분석한 결과, 실제 점심 유입자 수는 평균 수준이었고, 문제는 회전율이었다. 해당 매장의 체류 시간은 평균 52분이었고, 경쟁 매장은 31분이었다. 원인은 테이블마다 제공되는 전원 콘센트와 조용한 음악 때문이었다. 매장은 공부나 회의 장소로 사용되었고, 회전이 안 되자 매출이 떨어졌던 것이다. 이후 테이블당 체류 제한을 명시하고, 회전율을 기준으로 인력 배치를 조정하자 1개월 만에 매출이 19% 증가했다.

또 다른 사례는 리뷰 데이터 분석이다. 부산의 한 해산물 전문점은 별점이 꾸준히 3.9점 수준을 유지하고 있었고, 리뷰 수도 많았다. 사장은 단순히 “손님 입맛 따라 별점이 달라지니까 어쩔 수 없다”고 했다. 그러나 리뷰에서 가장 자주 등장한 부정 단어는 ’비린내’였다. 해당 식당은 내부 환기 시스템 문제로, 비오는 날에는 실내에 비린내가 더 심하게 퍼지는 문제가 있었다. 원인을 제거한 이후 별점은 4.4점까지 올랐다. 문제는 데이터에 있었고, 해답도 데이터에 있었다.

1.1.3 분석을 실행하지 못하는 조직의 구조적 한계

대다수 외식 매장에는 POS가 설치되어 있고, 매출 데이터는 실시간으로 저장된다. 그러나 이 데이터를 분석하거나 활용하는 매장은 많지 않다. 이유는 명확하다. 분석의 필요성은 인지하지만, 해석의 도구가 없기 때문이다. 보고서는 쌓여도 전략은 나오지 않는다. 분석을 전담할 인력이 없거나, R이나 Python 같은 언어에 대한 진입장벽이 높기 때문이다. 그리고 무엇보다 중요한 문제는 ’무엇을 분석할 것인가’를 정하지 못한다는 데 있다.

데이터가 있어도, 어떤 문제가 발생했고, 그 문제를 해결하려면 어떤 지표를 확인해야 하는지 모른다면 분석은 무의미하다. 반대로 문제 정의가 명확하다면, 단순한 도구와 기본적인 지식만으로도 실행 가능한 분석이 많다. 예를 들어, “주말 고객의 평균 결제 금액이 평일보다 높은가?”라는 질문에 대해서는 R의 t.test() 함수 하나면 충분하다. 질문이 분석을 이끌어야 한다.

1.1.4 외식경영 분석에서 자주 활용되는 질문들

외식산업 데이터는 구조가 단순하면서도 풍부하다. 매출, 시간, 장소, 고객, 메뉴, 후기는 거의 모든 매장에서 자동으로 생성된다. 다음은 실제 분석에 자주 사용되는 분석 질문들과 이에 필요한 데이터 예시이다.

분석 질문 필요한 데이터 분석 기법
평일과 주말의 객단가 차이가 유의미한가 결제일자별 고객별 결제 금액 독립표본 t-검정
주방장 교체 이후 음식 평점에 변화가 있었는가 리뷰 일자별 평점, 주방장 변경일자 시계열 시각화, 평균 차이 분석
특정 메뉴의 계절별 판매 패턴이 존재하는가 월별 메뉴별 판매량 범주형 데이터 시각화, ANOVA
테이블 회전율이 매출에 어떤 영향을 주는가 테이블 체류 시간, 시간대별 매출 상관분석, 회귀분석
고객 이탈 시점은 언제인가 재방문 간격, 멤버십 사용 로그 이탈 분석, 생존분석

이러한 분석은 단순히 기술적인 계산이 아니라, 매장 전략과 직결된다. 분석의 목적은 수치를 만드는 것이 아니라 행동 가능한 인사이트를 도출하는 데 있다.

1.1.5 숫자가 아니라 의미를 읽는 능력

데이터는 숫자다. 그러나 분석은 숫자를 해석하는 것이다. 예를 들어 “평균 객단가가 9,800원이다”는 수치는 분석이 아니다. 경쟁 매장과 비교하여 높거나 낮은지, 계절에 따라 변화하는지, 요일별 차이가 있는지, 그 차이가 전략적으로 의미가 있는지 등을 해석해야 분석이라고 할 수 있다.

같은 수치도 질문의 방향에 따라 전혀 다른 의미를 갖는다. 월요일 객단가가 낮은 것이 문제일 수도 있고, 사실상 평일 중 화요일과 수요일이 유난히 높은 것일 수도 있다. 이를 확인하기 위해서는 기술통계뿐만 아니라 분포, 분산, 구조를 읽는 눈이 필요하다.

외식경영 데이터는 본질적으로 복잡하지 않다. 다만, 그 복잡하지 않은 수치를 해석하고 연결하는 훈련이 되어 있지 않으면 매장 운영은 항상 ’직감’에 의존하게 된다.

1.1.6 분석은 실행으로 이어져야 한다

분석의 궁극적 목적은 실행이다. 의미 없는 분석은 ’정보는 많은데, 전략이 없다’는 상황을 만든다. 정보가 쌓여도 아무도 그것을 읽지 않고, 아무 것도 달라지지 않으면 데이터는 죽은 자산이다.

리뷰를 읽고 메뉴를 수정하고, 회전율을 분석하고 인력을 조정하고, 매출을 비교하여 마케팅을 기획하는 것. 이것이 분석이다. 의사결정을 돕지 못하는 분석은 단순한 숫자 나열에 불과하다.

1.1.7 당신이 매장을 연다면, 어떤 데이터를 먼저 볼 것인가?

직접 음식점을 창업한다고 가정해보자. 하루 매출보다 더 중요한 데이터는 무엇일까. 어떤 데이터가 ’문제가 생겼다’는 신호를 먼저 줄까. 월별 손익보다도, 평일 점심시간 회전율이 낮다는 지표가 더 실질적인 조치로 이어질 수도 있다. 실제로 재고일수만 봐도 해당 매장의 매출이나 이익을 예측할 수 있다.

이 질문은 단순히 분석 도구를 익히는 것 이상의 사고를 요구한다. 무엇이 문제인가. 어떤 지표가 그 문제를 반영하는가. 데이터를 통해 그것을 어떻게 증명할 수 있는가. 이런 질문이 분석 수업의 시작점이다.

1.2 우리는 왜 통계를 배우는가?

1.2.1 통계는 숫자가 아니라 판단의 도구다

많은 학생들은 통계를 ’계산’이라고 생각한다. 평균, 분산, 표준편차 같은 공식만 외우면 된다고 여긴다. 그러나 실제 경영 현장에서는 통계는 계산보다 해석의 도구로 작동한다. 숫자가 아니라 판단의 기준이고, 혼란스러운 상황에서 선택지를 줄여주는 필터다. 손님이 줄었을 때 원인을 찾는 데에는 다양한 가설이 존재한다. 메뉴 가격 때문일 수도 있고, 날씨 때문일 수도 있고, 새로운 경쟁 매장이 생겨서일 수도 있다. 그중에서 가장 유력한 원인을 찾아주는 것이 통계적 사고다.

통계는 명확하지 않은 세상에서 무엇이 ’유의미한 차이’인지를 구별할 수 있게 해준다. 두 매장의 일별 매출이 다를 때, 그 차이가 우연인지 실제 차이인지 판별할 수 있다. 단순히 30만 원이 더 벌렸다는 사실보다, 그 차이가 통계적으로 의미 있는 차이인지를 판단하는 것이 중요하다. 차이를 읽는 것과, 차이가 의미 있는지를 판단하는 것은 완전히 다른 작업이다.

1.2.2 통계는 불확실성 속에서 의사결정을 가능하게 만든다

외식경영은 늘 불확실한 조건 속에서 이루어진다. 오늘의 날씨, 인근 행사 유무, 배달 플랫폼의 노출 위치, 온라인 리뷰 하나까지도 매출에 영향을 미칠 수 있다. 전부를 통제할 수는 없지만, 어떤 요인이 중요한지를 구별해내는 능력은 통계를 통해 가능하다. 어느 요일에 매출이 가장 높은지 아는 것만으로는 부족하다. 그 요일과 매출 사이에 상관이 있는지, 혹은 우연한 패턴인지 판단해야 다음 전략이 가능하다.

부산 해운대에서 장사를 하는 한 횟집 사장은 매출이 들쑥날쑥한 이유를 관광객 수와 날씨로만 생각했다. 그러나 실제 매출과 날씨 데이터를 3개월간 수집해서 상관분석을 해보니, 가장 밀접한 요인은 ’평균 강수량’이 아니라 ’습도’였다. 비가 와도 습도가 낮은 날은 매출이 상대적으로 유지되었고, 반대로 습도가 높은 날은 매장 체류 시간이 현저히 줄어들었다. 분석 결과를 기반으로 매장은 실내 환기와 제습 설비에 투자했고, 이후 불쾌지수가 높은 날의 매출 변동성이 줄어들었다. 이 사례는 감각이 아닌 수치화된 근거를 기반으로 경영이 조정된 경우다.

1.2.3 평균은 전체를 말하지 않는다

많은 사람들이 평균을 신뢰하지만, 평균은 진실을 왜곡할 수 있다. 한 프랜차이즈 매장의 고객 대기시간 평균이 8분이라고 가정하자. 이 수치를 보고 대부분은 ’그리 오래 걸리지 않는다’고 생각한다. 하지만 분포를 보면 절반 이상은 3분 안에 입장했고, 나머지 절반 중 일부는 20분 이상 대기했다. 평균은 단지 하나의 대표값일 뿐이며, 고객 경험을 제대로 반영하려면 분포와 편차를 함께 고려해야 한다.

다음 표는 같은 평균을 가지는 두 매장의 고객 대기시간 예시다.

구간 A매장 고객 수 B매장 고객 수
0~5분 15명 5명
6~10분 10명 10명
11~20분 5명 15명
평균 대기시간 8분 8분

두 매장의 평균은 동일하지만, 고객 체감은 완전히 다르다. A매장은 대부분이 빠르게 입장하고 일부만 오래 기다린다. B매장은 전체적으로 고르게 오래 기다린다. 통계는 이런 숨어 있는 구조를 드러내기 위한 수단이다.

1.2.4 p-값은 기계적으로 해석하면 안 된다

대부분의 경우 p-값이 0.05보다 작으면 “차이가 있다”고 단순히 결론을 내린다. 하지만 p-값은 그보다 훨씬 복잡한 개념이다. 예를 들어 두 개의 매장에서 점심 평균 매출이 각각 12만 원과 13만 원이고, 표본 수가 7일씩이라면 p-값은 0.2 이상일 수 있다. 이는 단기적 차이는 존재하지만, 그 차이가 통계적으로 신뢰할 수준이 아니라는 의미다. 반대로 표본 수가 수백 개일 경우, 아주 작은 차이도 p-값을 낮출 수 있다.

p-값은 차이의 크기를 의미하지 않고, 그 차이가 우연히 발생할 확률을 의미한다. 따라서 통계적 유의성과 실제적 유의성은 다르다. 기초 통계에서 이 구분을 명확히 하지 않으면, 데이터 해석에서 반복적인 오류가 발생한다.

1.2.5 당신은 이 숫자를 믿을 수 있는가?

음식점 A에서 고객 재방문률이 32%라고 발표되었다. 이 수치 하나로 고객 충성도를 판단할 수 있을까. 이 수치는 어느 기간 동안 측정되었는가. 어떤 기준으로 재방문을 정의했는가. 주말만 기준으로 측정한 것인가, 전체 기간인가. 신규 고객과 기존 고객이 구분되었는가. 이처럼 수치는 항상 맥락과 함께 해석되어야 한다. 통계는 수치를 해석할 수 있는 논리의 체계이자, 데이터 문해력의 핵심이다.

1.2.6 통계는 현장을 위한 언어다

외식 매장의 운영자는 수치를 잘 읽는 사람이 되어야 한다. 직원 스케줄, 메뉴 변경, 광고 집행, 이벤트 설계는 모두 수치를 기반으로 판단되어야 한다. 더 이상 직감과 경험만으로 결정할 수 있는 시대는 지났다. 데이터를 읽지 못하면, 고객의 행동을 이해하지 못하고, 경쟁자보다 느린 대응을 하게 된다. 반대로 통계를 통해 현장을 읽는 눈이 생기면, 작은 데이터에서도 전략적 기회를 찾아낼 수 있다.

통계는 수학이 아니라 의사결정의 언어다. 외식경영에 통계가 필요한 이유는 그것이 복잡한 현상을 간결하게 요약하고, 그 요약을 바탕으로 행동을 설계할 수 있게 해주기 때문이다.

1.3 전통적 분석가 vs AI 시대 분석가

1.3.1 분석가의 역할은 변하고 있다

불과 3년 전만 해도 데이터 분석가는 복잡한 통계 지식을 외우고, R이나 Python 코드를 줄줄이 입력할 수 있어야 인정받았다. 분석가는 일종의 기술직으로 여겨졌고, 분석 기술을 얼마나 정확하고 빠르게 수행하느냐가 실력의 기준이었다. 그러나 지금은 상황이 다르다. 코드 입력은 더 이상 인간의 고유 영역이 아니다. GitHub Copilot, ChatGPT, Cursor, Claude Code, Gemini 등과 같은 AI 기반 도구는 대부분의 기본 분석 코드를 자동으로 생성한다. 사용자가 해야 할 일은 무엇을 분석할지 정의하고, 생성된 코드를 이해하고 해석하는 것이다. 분석가는 기술자가 아니라 해석자, 전략가, 의사결정 보조자가 되어가고 있다.

외식경영에서도 변화는 분명히 나타날 것이다. 한 프랜차이즈 본부에서는 이전에는 데이터 분석 팀이 POS 매출 데이터를 받아 일일이 코딩으로 분석 리포트를 작성했다면, 앞으로는는 영업팀 실무자들이 GPT 기반 분석 어시스턴트를 통해 스스로 데이터 요약과 시각화를 생성할 것이다. 이전에는 코드를 아는 사람만이 분석이 가능했지만, 이제는 코드를 ’잘 묻는 사람’이 더 효율적으로 일한다. 질문의 질이 분석의 질을 결정하는 시대가 된 것이다.

1.3.2 전통적 분석가는 ’어떻게’에 집중했다

전통적인 분석 교육은 어떤 모델을 쓸 것인지, 어떤 수식을 써야 정확한 결과가 나오는지를 중심으로 구성되었다. 회귀분석의 수식 유도, 분산분석의 자유도 계산, 정규분포의 면적값을 외우는 것이 일반적이었다. 이런 분석가는 ‘어떻게 분석할 것인가’에 초점을 맞췄고, 분석을 위한 분석에 머무르기 쉬웠다. 실제 외식업 현장에서 ’왜 이 분석이 필요한가’, ’이 결과로 무엇을 할 수 있는가’는 종종 뒷전으로 밀려났다.

예를 들어, A매장은 두 가지 할인 쿠폰 중 어느 것이 효과적인지를 검증하기 위해 두 그룹 간 객단가 평균을 비교했다. 전통적 분석가는 곧바로 t-검정을 수행했고, p-value가 0.03이므로 두 쿠폰 간 차이가 유의하다는 결론을 냈다. 그러나 실제 쿠폰 사용률은 매우 낮았고, 적용된 고객 수도 적었다. 이 분석은 형식적으로는 맞지만, 의사결정에 아무런 도움도 되지 않는 분석이었다. 분석은 있었지만 전략은 없었다.

기존에는 통계적 지식과 분석 프로그래밍의 능력이 있다고 해도 현실의 경영 현장에서 제대로 실행될만한 전략을 도출하지 못하는 경우가 많았다. 이는 통계지식을 갖춘 분석가가 경영학의 기본 소양이 없거나 경영현장을 제대로 이해하지 못하면서 발생하는 문제였다. 여전히 경영 전략가들은 자신의 감을 믿고 전략을 세우지만 이제는 데이터에 기반한 정확한 분석과 이 분석이 경영 전략적 인사이트를 충분히 끌어낼 수 있어야 한다.

1.3.3 AI 시대의 분석가는 ’무엇’과 ’왜’에 집중한다

AI는 대부분의 ’어떻게’를 대신할 수 있다. 분석가는 이제 ’무엇을 분석할 것인가’와 ’왜 이 분석이 필요한가’를 결정하는 데 에너지를 써야 한다. 즉, 데이터를 보는 관점이 바뀌어야 한다. 같은 데이터를 보고도 어떤 사람은 평균을 뽑고, 어떤 사람은 분산을 확인하고, 또 어떤 사람은 특정 구간의 비율을 추출한다. 분석 방향은 질문의 성격에 따라 달라진다. AI는 기술을 보조할 수는 있어도 문제 정의는 대신하지 못한다.

예를 들어, B매장은 주중과 주말 고객 수의 차이가 크다는 문제의식을 가지고 있었다. 전통적 방식이라면 먼저 t-검정을 수행하겠지만, AI 시대의 분석가는 먼저 고객 분포, 시간대 트렌드, 방문 간격, 체류 시간 등 더 근본적인 지표들을 검토한다. 분석 도구는 GPT를 통해 손쉽게 얻을 수 있고, 분석의 정확도보다 분석의 방향성이 중요한 요소로 부각된다. AI는 수단일 뿐이고, 질문이 분석의 출발점이라는 사고가 중심이 된다.

1.3.4 AI가 분석을 다 해준다면, 인간은 무엇을 해야 하는가?

학생들은 종종 이렇게 묻는다. “GPT가 다 해주는데 왜 내가 배워야 하죠?” 이 질문은 겉으로는 도발적으로 들릴 수 있지만, 사실 매우 본질적이다. 분석 도구는 점점 똑똑해지고 있으며, 대부분의 통계 코드는 이미 GPT가 더 빠르고 정확하게 생성할 수 있다. 그렇다면 인간은 어떤 역할을 해야 할까. 인간이 해야 할 일은 분석 자체가 아니라, 분석의 이유와 방향을 명확히 하는 것이다. 또, 생성된 분석 결과가 현장에서 적용 가능한지를 판단하고, 그 결과를 해석하여 의사결정으로 연결하는 것이다. GPT는 회귀식을 만들 수 있지만, 어떤 변수를 선택할 것인지를 결정하지는 못한다. 어떤 데이터가 신뢰할 수 있는지, 어떤 결과가 현실적인지 판단하는 것 역시 인간의 몫이다.

1.3.5 비교: 전통적 분석가 vs AI 시대 분석가

아래 표는 분석가의 역할 변화와 핵심 관점의 차이를 정리한 것이다.

항목 전통적 분석가 AI 시대 분석가
분석 초점 분석 방법과 계산 문제 정의와 해석
핵심 질문 어떻게 분석할까 무엇을 분석할까, 왜 분석할까
필요 역량 통계 수식, 코딩 기술 데이터 문해력, 질문력, 해석 능력
분석 도구 R, SPSS, Excel 등 직접 조작 Copilot, GPT 등 보조 도구 활용
한계점 분석과 실천의 분리 질문 정의 실패 시 AI 분석도 무의미
경쟁력 계산 정확도 전략적 해석과 응용력

AI는 분석가를 대체하는 것이 아니라, 분석가의 역할을 재정의하고 있다. 이제 분석가는 계산하는 사람에서 질문하는 사람으로 이동하고 있으며, 질문의 질이 분석의 깊이를 결정하는 구조로 변화하고 있다.

1.4 VS Code + Copilot + R + Quarto

1.4.1 코드를 외우는 시대는 끝났다

이전까지는 R이나 Python으로 코드를 작성하려면 문법을 외우고, 함수 구조를 숙지해야 했다. 책 한 권을 통째로 외우는 것이 기본이었고, 분석 결과가 나오지 않으면 일일이 에러 메시지를 해석해야 했다. 지금은 상황이 달라졌다. GitHub Copilot은 사용자의 주석을 읽고 적절한 코드를 제안하며, 오류가 발생하면 해결 방안까지 제시한다. GPT는 분석 목적을 설명하면 적절한 모델과 해석 방안을 함께 제공한다. 코딩은 더 이상 숙련된 기술이 아니라, 효율적인 커뮤니케이션 수단으로 바뀌고 있다.

개인적인 판단으로는 GPT를 사용하면 학생들의 코드 완성 시간이 약 40% 이상 단축될 수 있다. 그러나 분석의 정확도는 도구의 도움만으로는 향상되지 않는다. 결과를 해석하고 전략을 연결하는 문제에서는 여전히 실력 차이가 뚜렷하게 나타날 수 밖에 없다. 도구는 빠른 결과를 제공하지만, 그 결과를 읽는 능력은 학습을 통해서만 습득된다.

1.4.2 실습을 위한 기본 도구 구성

본 강의에서 사용하는 기본 도구는 다음 네 가지이다. 각각의 도구는 목적과 역할이 분명히 다르며, 상호 보완적으로 작동한다.

도구 주요 기능 사용 목적
VS Code 통합 개발 환경 코딩, 파일 관리, 실시간 편집
GitHub Copilot AI 코드 생성기 자동 코드 제안 및 보완
R 통계 분석 언어 데이터 불러오기, 분석, 시각화
Quarto 문서 통합 플랫폼 코드 + 텍스트 + 결과 통합 작성

VS Code는 코딩을 위한 기반 환경을 제공하고, R은 통계 분석의 핵심 도구이며, Quarto는 분석 결과를 리포트로 정리할 수 있는 문서화 툴이다. Copilot은 이 전체 흐름에서 자동화와 제안 기능을 통해 분석 효율을 높여준다.

1.4.3 설치만 해도 분석의 절반은 준비된다

AI 보조 도구는 설치와 설정 과정이 끝나면 바로 효과를 체감할 수 있다. GPT는 분석 목적을 묻는 질문 하나만으로도 관련 코드를 제안하며, Copilot은 분석 목적이 명확하다면 대부분의 코드 블럭을 스스로 완성한다. 그러나 환경 설정이 제대로 되지 않으면 도구는 작동하지 않는다. 이 단락에서는 학생용 기준으로 가장 빠르고 안정적으로 실습 환경을 구축하는 방법을 서술한다.

1.4.4 실습 환경 설치 가이드

다음은 Windows PC 기준의 설치 순서이다. macOS나 Linux 사용자도 거의 동일한 구조로 진행할 수 있으며, 경로만 약간 다를 수 있다.

1.4.4.1 GitHub 계정 생성

GitHub Copilot을 사용하기 위해 먼저 GitHub 계정이 필요하다. 계정은 무료로 생성할 수 있으며, 학생 인증을 통해 교육용 플랜을 신청할 경우 Copilot을 무료로 사용할 수 있다.

1. https://github.com에 접속하여 계정을 생성한다.
2. 사용자명, 이메일, 비밀번호를 입력하고 인증 절차를 따른다. 이때, 학교메일 (edu 또는 ac.kr)을 사용해야한다.
3. 로그인 후 설정 화면에서 Copilot 탭으로 이동한다.
4. 학생 인증을 할 경우, https://education.github.com에서 GitHub Student Developer Pack을 신청한다.
5. 신청 후 ‘Enable GitHub Copilot’ 버튼을 클릭하여 활성화한다.

1.4.4.2 VS Code 설치 및 확장팩 구성

VS Code는 Microsoft에서 제공하는 무료 코드 편집기이며, 다양한 프로그래밍 언어와 연동이 가능하다. R과 Quarto를 함께 사용하기 위해 다음과 같은 구성 요소를 설치한다.

1. https://code.visualstudio.com에서 최신 버전을 다운로드하고 설치한다.
2. 설치 후 VS Code를 실행하고 좌측의 Extensions(확장) 메뉴를 연다.
3. 다음 확장팩을 검색하고 설치한다:
- R (REditorSupport 제공)
- Quarto (quarto-dev 제공)
- GitHub Copilot
- Markdown All in One (문서 작성 보조용)

설치가 완료되면 VS Code는 .R, .qmd, .md 등의 파일을 편집하고 실행할 수 있는 환경이 된다.

1.4.4.3 R과 Rtools 설치

R은 통계 분석에 특화된 언어이며, 외식경영 데이터의 정제, 시각화, 모델링에 모두 사용할 수 있다.

1. https://cran.r-project.org에서 운영체제에 맞는 R 설치 파일을 다운로드한다.
2. 기본 옵션대로 설치를 진행하고, 설치 경로를 기억해 둔다.
3. 일부 패키지를 설치할 때 C++ 컴파일러가 필요하므로, Windows 사용자는 Rtools를 함께 설치한다.
- https://cran.r-project.org/bin/windows/Rtools/에서 설치 가능

1.4.4.4 Quarto 설치

Quarto는 분석 코드와 텍스트, 그래프를 하나의 문서로 통합할 수 있는 도구다.

1. R-studio에서 RStudio를 다운로드한후 설치한다.
2. https://quarto.org/docs/get-started/에서 설치 파일을 다운로드하고 설치한다.
3. 설치가 완료되면 RStudio 터미널에서 quarto check 명령어로 정상 설치 여부를 확인한다.

Quarto는 .qmd 파일을 기반으로 HTML, PDF, Word, reveal.js 슬라이드 등 다양한 형식으로 문서를 출력할 수 있다. 실습 과제와 프로젝트 보고서는 모두 Quarto로 제출할 예정이다.

1.4.5 실습 확인: 환경 테스트

설치가 완료되었는지 확인하려면 다음 단계를 진행한다.

1. VS Code 또는 RStudio에서 새로운 .qmd 파일을 생성한다.
2. 다음 페이지의 R 코드 블럭을 카피한다: Quarto
3. Ctrl + Shift + K를 눌러 혹은 RStudio에서 Render를 클릭하여 Quarto 문서를 렌더링한다.
4. 결과 HTML 파일이 자동 생성되며, 코드 결과와 그래프가 함께 나타난다.

1.4.6 마무리 정리: 도구를 다루는 능력은 분석가의 전제조건이다

코딩을 몰라도 분석이 가능하다는 말은 반은 맞고 반은 틀리다. 분석의 방향과 전략을 설정하는 데에는 코딩보다 사고력이 중요하지만, 도구를 다룰 줄 모르면 분석 자체를 실행할 수 없다. Copilot과 GPT는 사람의 판단을 대신하지 못하며, RStudio와 VS Code는 데이터와 해석을 연결하는 통로가 되어준다. 분석가는 기술을 넘어서 전략으로 나아가야 하며, 그 첫 걸음은 기본 환경을 안정적으로 세팅하는 일이다.