NGC Ventures 최신 연구: 9월, AI 창업에 대한 냉정한 생각과 제안

NGC 벤처스
2023-09-03 13:26:20
수집
“너무 낙관적이거나 너무 비관적이면 함정에 빠지게 되고, 널리 퍼진 발언은 종종 이러한 편차가 큰 발언들이다. 독립적인 사고가 더욱 소중하게 여겨진다.”

저자: CherryIn, 투자 관리자, NGC Ventures

본 문서의 초안은 8월 말 휴일에 작성되었으며, 성급하게 발표한 후 많은 조언을 받았습니다. 필자는 일부 내용을 수정하여 웃음거리가 되지 않도록 하였습니다.

본 문서의 내용은 주로 투자 관점에서 AI 산업의 현황을 평가하고, 다양한 회사의 기술/제품 로드맵을 반성하고 추측하며, AI 산업 회사의 전략을 추상적으로 요약하는 것입니다. 따라서 구체적인 기술에 대한 부분은 불가피하게 누락될 수 있으니 양해 부탁드립니다.

하지만 결국, 논문을 발표할 수 있는 몇몇 대기업들이 여전히 치열하게 경쟁하고 있으며, 본 문서의 내용에 대한 정확성을 평가할 수 있는 사람은 없는 것 같습니다. 마치 GPT-4로 GPT-3.5를 평가하는 것과 같아서, 겉보기에는 합리적이지만 깊이 생각해보면 다소 추상적입니다.

따라서 필자는 본 문서를 불확실한 산업에 대한 정보 수집 후 형성된 "판단"으로 간주할 것을 제안합니다. 판단이란 입장이 분명해야 하며, 의미 있는 내용을 담아야 합니다. 판단의 정확성 여부는 시간에 맡기면 됩니다.

필자는 항상 믿습니다: 새로운 산업은 소음이 많고, 많은 생각을 하고 판단을 내리는 것은 결코 잘못된 일이 아닙니다. 판단 문제에서 무작위 추측의 정답률은 50%이며, 연속적으로 세 번 틀릴 확률은 12.5%입니다. 동전 던지기 수준의 판단이라도 의미가 있습니다. 판단을 내리는 것은 두렵지 않지만, 판단의 정확도가 동전 던지기보다 낮은 것이 가장 두렵습니다.

본 문서를 시작하기에 앞서, 다음의 작업에 감사드립니다. 이들은 본 문서에 귀중한 영감과 데이터 소스를 제공했습니다. 물론 본 문서의 많은 추론이 이러한 작업에 기반하고 있으므로, 그 중 오류가 있거나 필자의 이해가 잘못되었다면 본 문서의 추론도 더 이상 견고하지 않을 수 있으니 독자께서 스스로 판단해 주시기 바랍니다. 본 문서는 투자 조언을 구성하지 않으며, 투자 조언을 구성하기도 어렵습니다.

자, 이제 본 문서를 공식적으로 시작하겠습니다.

대모델: 사이버 로켓 발사

2023년 AI에 대한 논의의 첫 단계는 대모델 창업이 과연 가능한지에 대한 논의입니다.

대모델(의 사전 훈련)은 현재 로켓 발사 문제로 전환되었습니다. 비용이 감당 가능하고 방향이 맞다면 누구나 할 수 있습니다. 대모델 훈련은 사이버 로켓을 발사하는 것과 같습니다.

상식에 반하는 점은 투자자들이 대모델 훈련의 난이도를 과소평가하고, 실제 로켓 발사의 난이도를 과대평가한다는 것입니다. 6000만 달러의 비용이 드는 경우, 투자자들은 로켓 발사가 실패하더라도 두 번째 기회가 있다고 생각하지만, 대모델 훈련의 실패는 자금 낭비로 간주됩니다.

GPT-4는 OpenAI의 GPU 활용 효율(약 30%로 보도됨)에도 불구하고 여전히 6000만 달러를 소모했습니다. 이는 {성능=효율×비용}의 문제이며, 성능은 벽이 됩니다. 다른 스타트업들이 30%×6000만=1800만 달러 이상의 성능을 달성하지 못한다면, 사용자는 차라리 GPT-4를 사용하는 것이 낫습니다.

현재, 대모델 훈련을 주장하는 많은 회사의 자금 조달 라운드는 100만에서 500만 달러 사이입니다. 즉, 최대 자금 조달을 받은 회사조차도 한 번의 발사를 지원할 수 있는 양만큼의 자금만 가지고 있습니다. 이번 발사의 GPU 활용률이 100%에 도달하더라도, GPT-4를 초과하기는 매우 어렵습니다.

이 관점에서 보면, 로켓 발사는 더 쉽게 이루어질 수 있습니다. 현재 대부분의 로켓은 운반 로켓으로, 위성을 우주로 보내며, 단일 화물량이 제한적이기 때문에 작은 로켓 회사들은 다른 사람들이 발사하지 못한 위성을 수송할 수 있습니다.

대모델은 다릅니다. 대모델의 수평 확장의 한계 비용은 계산 능력 비용뿐이며, 계산 능력 비용은 탄력적으로 확장될 수 있습니다. 이는 대모델 회사에게 각 주문의 이익이 거의 추가 비용 없이 발생한다는 것을 의미하며, 수용 능력이 매우 큽니다. 새로 설립된 품질이 낮은 대모델 회사는 넘치는 수요를 수용하기 어렵습니다.

훈련 비용이 대폭 감소하지 않는 한, GPT-4의 모든 구조를 알더라도 많은 회사들이 단기적으로 시장에 투입할 수 있는 대모델을 만들기는 어렵습니다.

맞춤화: '승자 독식' 문제 정면 대응

하드웨어 산업에서 흔히 볼 수 있는 현상은 맞춤화 수요를 통해 초기 이익을 실현하고, 초기 이익을 통해 기술 돌파구를 마련하는 것입니다. 그러나 대모델 산업의 맞춤화는 신규 진입자의 출구가 되기 어렵습니다.

이 판단에 대한 설명은 매우 간단합니다: 대다수의 미세 조정된 모델이 GPT-4를 따라잡지 못하며, 설령 따라잡았다 하더라도 GPT-4를 직접 사용하는 것이 비용이 더 낮고, 인력 요구가 적으며, 운이 덜 필요하고, 데이터 요구도 적습니다. GPT-4와 다른 모델 간의 성능 차이가 여전히 존재하는 한, 맞춤화는 대모델 회사의 출구가 될 수 없습니다.

매우 전형적인 예로 Jasper가 있습니다. Jasper는 미세 조정된 GPT-3를 사용하여 기업 고객에게 서비스를 제공했지만, OpenAI가 ChatGPT(GPT-3.5)를 공개한 후 사용자가 급속히 이탈했습니다. Jasper의 결과물은 GPT-3.5에 간단한 프롬프트를 입력하여 얻을 수 있기 때문에, 기업 내부에서만 사용할 수 있는 "구식 버전"을 사용할 필요가 없었습니다.

신규 회사에 비해 Jasper는 적어도 GPT-3에서 GPT-3.5로의 공백 기간이 있었습니다. 그러나 현재의 신규 회사는 저비용 고속의 GPT-3.5와 고성능의 GPT-4의 압박을 동시에 받아야 합니다.

따라서 맞춤화를 통해 이익을 축적하여 기술 돌파구를 마련하려는 경로는 생존 확률이 매우 낮습니다.

미세 조정: 필요하지만 맹신하지 말 것

현재 AI 산업은 미세 조정에 대한 비현실적인 기대를 가지고 있으며, 이러한 기대는 구체적인 기술 구현과 거시적인 기술 리듬 모두에서 과대평가되고 있습니다.

현재 산업에서 논의되는 미세 조정의 대부분은 "사전 훈련 모델을 기반으로 하여 인간의 의도에 부합하는 응답을 생성하는 것"을 의미합니다. 이러한 미세 조정을 "정렬"이라고 부를 수 있으며, 이는 응답이 인간의 의도에 맞도록 하는 것이지 대모델에 지능을 추가하는 것이 아닙니다.

여러 논문의 연구 결과에 따르면, 대모델의 지식은 주로 사전 훈련에서 나오며, 미세 조정은 주로 정렬에 사용됩니다.

간단히 설명하자면, 사전 훈련은 뇌 용량을 결정하고, 미세 조정은 모국어를 결정합니다. 사전 훈련 모델에 대한 미세 조정은 "문맹 퇴치"의 과정입니다.

그러나 현재 산업에서는 미세 조정을 모델에 "지능을 추가하는" 방법으로 간주하는 경향이 있으며, 즉 미세 조정을 통해 모델 성능을 향상시키고 모델 지식을 증가시켜 "인공지능의 성배"에 도달할 수 있다고 생각합니다. 이러한 사고는 다소 편향되어 있습니다.

첫째, 모델 자체의 성능은 향상되지 않으며, 단지 인간의 의도에 더 잘 정렬될 뿐입니다. 만약 작업의 복잡도가 모델의 성능을 초과한다면, 미세 조정은 예상한 결과를 얻지 못할 것입니다. 마치 인간의 두뇌로 양자 계산을 하도록 하는 것과 같습니다. 할 수 없는 것은 교육의 문제가 아닙니다.

둘째, "의도 정렬" 부분에서 "지식 보충"을 하는 것은 "앵무새처럼 따라하기"와 유사한 효과를 가져옵니다. 즉, 모델은 전문가의 말을 모방할 뿐 그 의미를 이해하지 못합니다. 많은 산업에서 "앵무새처럼 따라하기"로 좋은 솔루션을 얻을 수 있지만(대부분의 산업이 복잡하지 않기 때문입니다), 이는 우리가 장기적으로 추구해야 할 결과가 아닙니다.

마지막으로, "추가 데이터 세트를 보충하여 모델 성능을 향상시키고 모델 지식을 증가시키는" 훈련은 모델이 "증분 학습/지속 학습" 능력을 가지고 있다고 간주해야 하며, 즉 모델의 전체 매개변수를 증분 데이터 세트를 통해 최적화할 수 있습니다. 이는 소위 "지시 미세 조정"과는 다른 개념입니다.

종합적으로 볼 때, 미세 조정은 매우 중요하지만 현재의 미세 조정에 대해 "맹신"하는 태도는 잘못된 것입니다. 특히 현재의 미세 조정을 성배로 간주하는 발언은 "현재 물리학의 대저택 위에 두 개의 먹구름만 떠 있다"는 의미를 내포하고 있습니다.

한 걸음 물러서서, 만약 "지능을 추가하는" 요구가 정말로 지시 미세 조정으로 해결될 수 있다면, 간단한 벡터 검색을 하거나 지식을 문맥에 넣고, 몇 개의 프롬프트 템플릿을 간단히 작성하는 것만으로도 비슷하거나 더 나은 효과를 얻을 수 있을 것입니다.

모두가 미세 조정을 좋아하는 것은 아마도 현대에서 연금술 기술이 부활한 것일지도 모릅니다…

대모델 전망: 사칙연산

(주의: 이 부분의 내용은 전적으로 Dylan Patel의 폭로된 데이터를 기반으로 하며, 신뢰성은 현재 검증할 수 없습니다.)

GPT-4의 훈련은 N 카드의 A 시리즈를 기반으로 하며, 훈련 효율은 30%, 훈련 시간은 약 2개월, 비용은 약 6000만 달러, 총 매개변수는 {1.7조=1100억×16개 전문가 모델}이며, 단일 문제를 처리하는 매개변수는 약 2800억입니다.

즉, 몇 가지 핵심 매개변수가 대모델 훈련의 구도를 변화시킬 수 있습니다.

  • 훈련 효율: 30%에서 60%로 향상되면 시간은 절반으로 단축됩니다.
  • 계산 능력 밀도 향상: A 시리즈에서 H 시리즈로, 다시 AI 전용 카드로 변경하면 계산 능력 밀도가 향상되어 많은 아키텍처에서 효율성 문제를 해결할 수 있습니다.
  • 계산 능력 비용 감소: 젠슨 황(Nvidia 창립자)이 그래픽 카드에 할인 혜택을 주어 비용이 크게 감소합니다.
  • 매개변수 효율 향상: 모델의 매개변수 효율에는 향상 가능성이 있으며, 과거의 새로운 모델이 오래된 모델에 대한 매개변수 효율을 여러 배 향상시킨 것을 참고할 수 있습니다. GPT-4의 30% 매개변수만으로도 유사한 효과를 얻을 수 있을 것입니다.

이러한 점을 종합적으로 고려할 때, 제로에서 GPT-4 수준의 성능을 가진 모델을 훈련하는 비용은 10~20배의 최적화 공간이 있을 수 있으며, 즉 300만 달러~600만 달러로 압축될 수 있습니다. 이 비용은 스타트업과 대기업의 비용 통제에 있어 더 쉽게 수용될 수 있습니다.

이 변화는 약 2년 정도의 시간이 필요할 것으로 보입니다.

현재 주류 대모델 기술은 여전히 트랜스포머를 기반으로 하며, 기본 인프라는 변화가 없고, 매개변수를 늘리는 방식은 여전히 기적을 만들어내고 있습니다. GPT-4의 훈련은 계산 능력 제한이 큰 상황에서 진행되었으며, 훈련 시간이 충분하지 않았습니다.

만약 매개변수가 훈련 시간에 따라 선형적으로 증가한다면, GPT-4와 유사한 아키텍처의 모델의 매개변수 한계는 약 10조 정도일 수 있습니다. 즉, 훈련 시간이 두 배(×2) 늘어나고, 병렬 그래픽 카드가 두 배(×2) 늘어나며, 훈련 효율이 절반(×1.5) 빨라지고, 매개변수 효율이 절반(×1.5) 높아지면, 최종적으로 10배의 결과를 얻을 수 있습니다. 실리콘밸리의 위험 선호 스타일에 따르면, 이 매개변수 양은 성능 향상 여부와 관계없이 1년 내에 도달할 가능성이 높습니다.

그러나 10조 매개변수에 도달한 후, LLM이 매개변수를 늘리는 방식으로 기적을 만들어낼 수 있을지는 완전히 미지수입니다.

만약 매개변수 양이 모델 성능 향상에 대해 한계 수익이 감소한다면, 10조는 하나의 경계가 될 수 있습니다. 그러나 매개변수 양이 모델 성능 향상에 대해 한계 수익이 증가한다는 가설도 있습니다. 즉, "한 사람이 충분히 똑똑하다면 무엇이든 빨리 배운다"는 것입니다. 전자는 괜찮지만, 후자가 사실이라면 모델 성능은 기하급수적으로 향상될 수 있으며, 그때 어떤 일이 발생할지는 완전히 예측할 수 없습니다.

연금술을 예측하는 것은 어렵지만, 기업 전략의 리듬을 예측하는 것은 쉽습니다. 총 매개변수 10조의 모델은 대부분의 기업에게, 구글/MS/APPL 같은 거대 기업이든, 조금 작은 OpenAI든, 이정표적인 종착점이 될 것이며, 잠시 멈추고 기술 탐색을 할 수 있는 위치가 될 것입니다.

기업/자본의 위험 선호는 "인내 시간"으로 환산될 수 있으며, 전체 인내 시간이 급격히 비용을 소모하고 있다면 6개월을 넘기기 어렵습니다. 인간의 공예 성장 속도는 충분히 빠르지 않으며, 보통 5년 또는 그 이상의 주기로 이루어집니다. 따라서 5년 이내에 모델의 극한 매개변수 양을 추정할 수 있으며, 이는 20조~50조가 될 것입니다. 다시 한번 공정/아키텍처에서 큰 돌파구가 발생하지 않는 한, 이 수량을 초과할 확률은 낮습니다.

다중 모달: 방 안의 코끼리

다중 모달은 방 안의 코끼리로, 경로의 구도에 깊은 영향을 미칠 수 있습니다.

다중 모달의 간단한 정의는: 다양한 모달 정보의 입력과 출력을 지원하는 것입니다. 이 정의는 매우 느슨합니다. 예를 들어, 시장에서 다중 모달 입력이 가능하다고 주장하는 일부 제품은 실제로 ChatBot 외부에 OCR을 덧씌운 것입니다. 완전히 다중 모달 정의에 부합하는 모델도 있지만, 그 성능은 칭찬할 수 없습니다. GPT-4의 이미지 다중 모달 입력 능력조차 아직 광범위하게 개방되지 않았으며, 이 기능이 그리 안정적이지 않다는 것을 알 수 있습니다.

그러나 다중 모달의 출시는 먼 일이 아닙니다. GPT-5는 원래 다중 모달을 지원할 가능성이 높으며, 즉 구조를 재설계하고 재훈련해야 합니다. 앞서의 추론에 따르면, 대모델의 매개변수는 10배~50배의 성장 공간이 있으며, 그 안에 다중 모달 능력을 포함하는 것은 충분할 것입니다. 따라서 고가용성 고성능의 다중 모달 모델이 2년 이내에 등장할 것으로 예상되며, 낙관적으로 보면 1년 정도면 될 것입니다.

다중 모달은 방 안의 코끼리로, 모두가 결국 이런 것이 있을 것이라는 것을 알고 있지만, 많은 제품/연구/전략이 그 존재를 무시하여 중요한 부분에서 오판이 발생하고 있습니다.

예를 들어, 단일 이미지 모델은 이론적으로 다중 모달 모델의 심각한 압박을 받을 것입니다. 그러나 현재 대부분의 연구/투자는 이 문제를 무시하고 있어, 이미지 모델에 집중하는 회사에 지나치게 높은 평가를 부여하고 있습니다. 이러한 회사는 미래에 기술 장벽을 잃고 서비스 제공자로 전환될 가능성이 높으며, 그들의 평가 체계는 기술 회사가 아닌 서비스 제공자를 참고해야 합니다.

"투자는 사람을 보고, 같은 팀이 비즈니스 전환을 할 수 있다"는 이야기를 하고 싶다면, 제가 한 말은 잊어주세요. 전설은 항상 존재하지만, 연구를 할 때 전설을 맹신해서는 안 됩니다.

누가 GPT-4를 훈련할 수 있는가: 모두 가능하지만 필요하지 않다

연금술은 그렇게 오래 걸리지 않으며, 대기업들은 그래픽 카드를 구매하고 있습니다. 매우 명백한 사실은 1년 후, 대기업들은 모두 GPT-4 수준의 모델을 훈련할 능력을 갖추게 될 것입니다. 그러나 과연 훈련할 필요가 있는지는 또 다른 문제입니다.

게임 분야에서 "원신을 할 수 있다면 원신을 한다"는 고전적인 명제가 있습니다. 즉, 플레이어가 원신을 하거나 원신의 경쟁작을 선택할 수 있을 때, 경쟁작이 원신보다 좋지 않다면 원신을 하게 됩니다.

이러한 "승자 독식"의 사고는 대모델 산업에도 적용됩니다. 만약 한 회사가 OpenAI의 뒤를 이어 반년의 연구 개발 끝에 GPT-4에 필적하는 90% 성능의 대모델을 출시하고 시장에 내놓으려 한다면, 해당 회사는 다음과 같은 문제에 직면하게 됩니다:

  • OpenAI는 클라우드 자원의 규모적 이점을 가지고 있어 비용이 더 낮습니다.
  • OpenAI의 API는 이미 제품 코드에 대량으로 사용되고 있어 교체가 어렵습니다.
  • 해당 회사의 제품 성능은 여전히 GPT-4를 초과하지 못합니다.
  • OpenAI의 차세대 제품(아마도 GPT-5)이 곧 출시될 예정입니다.

이러한 점에서 해당 회사의 압박은 상당히 큽니다. GPT-4를 훈련하는 것보다 차라리 차세대 모델(GPT-5에 대응하는 모델)에 베팅하는 것이 더 나을 것입니다. 그러면 문제는 "동종 경쟁 제품 문제"에서 "기술 혁신 문제"로 전환됩니다. 이는 작은 회사가 감당하기 어려운 무게입니다.

따라서 "누가 GPT-4를 훈련할 수 있는가"에 대한 논의는 전략적으로 무의미한 질문입니다. 이 문제를 고민하기보다는 더 확실하고 기회가 있는 방향을 찾아보는 것이 좋습니다.

AI 스타트업에 대한 조언: 성능 우선, 정체 피하기

필자는 langchain에 대해 여러 차례 비판적인 글을 썼으며, 그 근본적인 이유는 langchain이 개발자에게 성능 향상 공간을 남기지 않았기 때문입니다. "범용 프레임워크"라는 미명 하에, 범용성을 보장하기 위해 많은 대모델의 성능 향상 공간을 포기했습니다. 예를 들어 다중 회화 및 미세 조정 구현의 형식 제어 등이 있습니다. 유사한 사례로 guidance/Auto-GPT/BabyAGI 등이 있으며, 이들 모두 "평생 사용할 수 있는 프레임워크"를 만들고자 합니다.

객관적인 사실은 OpenAI가 5월에 Function Calling을 발표하면서 많은 코드에서 번거로운 부분이 더 나은 구현 방안을 갖게 되었고, 더 나은 방안을 구현하기 위한 대가는 제품 코드의 핵심 부분을 재구성하는 것이었습니다. 8월에는 OpenAI가 GPT-3.5의 미세 조정 권한을 발표하면서, 많은 출력 제어가 필요한 부분에 새로운 잠재적 방안이 생겼습니다.

따라서 스타트업은 중요한 선택에 직면해야 합니다: ① 성능을 향상시키고 제품을 지속적으로 재구성할 것인가, 아니면 ② 새로운 기능 사용을 줄이고 항상 기존 기능으로 개발할 것인가?

신기술 응용의 스타트업에서 "개발"은 단순히 코드를 작성하는 과정을 의미하는 것이 아니라, 제품 기능/전략 측면의 "한계"를 의미합니다. 다룰 수 있는 성능이 높을수록 제품의 이론적 기능이 많아지고, 전략적 유연성이 높아집니다.

기술 발전은 예측할 수 없으며, 미세한 기술 혁신이 경쟁 구도의 변화를 가져올 수 있습니다. 스타트업은 기술 발전에 대해 반脆弱한 능력을 가져야 합니다.

------ 쉽게 말해: 성능 우선, 정체 피하기. 개발 측면에서는 새로운 기능을 많이 사용하고; 제품 측면에서는 새로운 기능이 어떤 기능을 할 수 있는지 고민하고; 전략 측면에서는 새로운 기능이 전략에 미치는 영향을 고려해야 합니다.

《과진론》에서는 진나라가 세운 후 세상의 금속 무기를 수거하여 12개의 동인(銅人)으로 주조하여 민간의 반란 가능성을 제거했다고 언급했습니다. 그러나 진나라는 유명한 단명 왕조입니다. 변화를 무시하기보다는 변화를 중시하는 것이 더 유리합니다.

AI 스타트업에 대한 조언: 애플리케이션 개발에 집중하라

스타트업이 애플리케이션을 개발할 때 매우 흔한 위험 요소는 대기업의 진입입니다. 여기서 대기업은 Meta/바이트/텐센트와 같은 애플리케이션 거대 기업뿐만 아니라 OpenAI와 같은 AI 산업의 상류도 포함됩니다.

대기업의 진입 이유는 보통 두 가지입니다: 제품 기회 배치 및 상류에서 하류로의 전환입니다.

"제품 기회 배치"는 문자 그대로의 의미로, 대기업이 이 방향이 가치가 있다고 판단하여 진행하는 것입니다.

"상류에서 하류로의 전환"은 주로 어쩔 수 없는 선택으로, OpenAI에 대응하는 대모델을 개발했지만, 대모델의 승자 독식 문제로 인해 사용자 없이 비용을 소모하고 수익이 없으며 데이터가 부족하여 성능이 점차 뒤처지게 됩니다. 이때 하류로 진입하여 구체적인 애플리케이션을 개발하고 자신의 기술을 사용하는 것이 유일한 선택입니다.

역사적 경험에 따르면, 조직 구조 문제로 인해 회사가 하류에 가까워질수록 기술이 뒤처지기 쉬우며, 기술이 뒤처질수록 하류로 진입할 수밖에 없습니다. 이러한 기술 회사들은 결국 애플리케이션 회사와 같은 생태적 지위를 놓고 경쟁하게 됩니다.

그러나 애플리케이션 계층의 전투에서는 AI 기술이 등장한 지 얼마 되지 않아 효과적이고 재사용 가능한 규모의 이점이 없기 때문에 대기업과 스타트업의 출발점이 비슷합니다. 대기업에 비해 스타트업은 효율성이 높고 통찰력이 깊어 더 쉽게 우위를 점할 수 있습니다.

주목할 만한 점은 MS Azure가 현재 거의 모든 홍보 자료를 OpenAI를 중심으로 전개하고 있다는 것입니다. 이렇게 큰 기업이 OpenAI에 전적으로 의존해야 한다는 것은 스타트업이 AI 분야에서 자연적인 우위를 가지고 있음을 측면적으로 증명합니다.

물론 일부 클라우드 공급자는 스타트업이 주도하는 것을 받아들이지 못하고 모든 시장을 차지하려 할 수 있습니다. 그들의 비용은 높고 속도는 느리며, 이는 가까운 위협이 아닙니다.

사실, 일부 AI 애플리케이션의 경로는 매우 단명할 수 있지만, 여전히 많은 장기적인 경로가 발굴되지 않았습니다. AI의 응용은 승자 독식이 아닙니다. 애플리케이션에서 플랫폼이나 기술로의 확장은 더욱 실행 가능한 경로입니다.

따라서 대기업이 애플리케이션 계층에 침투할 수 있는 능력을 합리적으로 바라봐야 합니다. 우리의 조언은 AI 스타트업이 애플리케이션 개발에 집중할 수 있도록 하는 것입니다.

AI 스타트업에 대한 조언: 제품 생명선에 주의하라

앞서 언급했듯이, AI 스타트업은 애플리케이션 개발에 집중할 수 있지만 AI 모델의 성능 문제를 고려해야 하며, 정체를 피해야 합니다. 이러한 상황은 AI 제품이 수개월 내에 수요 기반을 잃고 점차 쇠퇴할 수 있으며, 이러한 상황은 빈번하게 발생할 수 있습니다.

AI 애플리케이션은 대모델의 서비스를 사용해야 하며, 대모델의 성능은 지속적으로 향상되고 있습니다. 이러한 향상은 "속도"와 같은 단일 차원의 개선이 아니라, 출력 품질, 출력 길이, 출력 제어성과 같은 전방위적인 변화입니다. 기술의 현저한 업그레이드는 기존 애플리케이션 계층 제품의 기술적 뒤처짐을 초래하고 새로운 기회와 경쟁자를 창출합니다.

우리는 AI 애플리케이션이 전략/제품/기술 측면에서 우위를 유지하고 필요성을 갖는 시간을 "생명선"이라고 부릅니다.

다음은 생명선이 짧은 몇 가지 예입니다:

  • ChatGPT/Claude가 파일 업로드를 지원하게 되면 ChatPDF의 필요성이 사라집니다.
  • Office365가 Copilot을 지원하게 되면 AI로 PPT를 만드는 제품의 우위가 사라집니다.
  • GPT-3.5가 등장하게 되면 Jasper의 필요성이 사라집니다.

AI 산업의 발전이 빠르기 때문에 생명선이 제한적이라는 것은 일반적인 현상입니다. 따라서 생명선이 제한적이라는 사실을 받아들이고, 가능한 한 생명선이 긴 방향으로 발전하는 것이 장기적인 우위와 제품의 필요성을 유지하는 데 유리합니다.

일반적으로 생명선을 간단히 3/6/12개월 수준으로 구분할 수 있습니다.

  • 3개월: 대기업이 제때 만들지 못한 기능(예: office/ChatGPT가 아직 만들지 못한 기능)
  • 6개월: 일정한 구현 난이도가 있으며 기존 솔루션에 통합할 수 없지만, 우위/필요성이 AI 성능 향상에 따라 사라질 것(예: 범용 AI 프레임워크)
  • 12개월: 우위/필요성이 장기적으로 존재하며 대기업/기술 발전의 영향을 받기 어려운 것(예: Hugging Face)

* 플랫폼 제품의 생애 주기가 반드시 길지는 않으며, 결국 프롬프트 상점도 플랫폼입니다.

스타트업이 방향을 결정할 때 6개월 수준의 생명선이 있다면 개발할 수 있으며, 12개월 수준의 생명선은 얻기 어려운 것입니다.

제품 생명선이 끝나면 일반적으로 두 가지 상황이 발생합니다. 첫 번째 상황은 우위가 사라져 제품을 재구성하고 기술을 업그레이드해야 하는 경우입니다. 이 경우 "성능 우선"을 참고하시기 바랍니다. 두 번째 상황은 필요성이 사라져 제품이 점차 대체되는 경우입니다. 이때 제품은 여전히 몇 개월의 "운영 수명"이 남아 있어 스타트업이 다음 방향을 선택할 수 있습니다.

AI 스타트업에 대한 조언: Web3+AI를 할 수 있다

현재 Web3+AI 주제를 중심으로 창업하는 프로젝트가 많이 있으며, 기술 발전의 불확실성과 시장의 초기성을 고려할 때 Web3+AI 주제는 앞으로 많은 변수를 가질 것입니다.

본 문서는 불확실성 속에서 대체로 올바른 확실성을 찾기 위한 것이므로, 필자는 여전히 기회를 가질 수 있는 주제와 방향을 제안하고자 합니다. 이는 스타트업과 관심 있는 연구자에게 참고가 될 것입니다.

  • 비주권화 / 탈중앙화

현재 AI 산업의 선두주자들은 모두 폐쇄형 모델만을 제공하고 있으며, 지속적인 서비스 제공의 안정성, 투명성, 중립성은 통제할 수 없습니다. 비주권화 / 탈중앙화는 AI 산업의 중요한 주제가 될 수 있으며, 즉 비주권화 / 탈중앙화의 기본 구조를 기반으로 안정적이고 투명하며 중립적인 AI 서비스를 제공하는 것입니다.

비주권화 / 탈중앙화는 일종의 "대안"이자 "억제책"으로, 중앙화 / 주권화된 AI 회사의 비윤리적 비용을 상당히 높여 군사, 사이비 종교, 정치 등에서 AI 모델을 사용하는 것을 막을 수 있습니다.

극단적인 상황에서 중앙화 / 주권화된 AI 서비스가 어떤 이유로 더 이상 사용 불가능하거나 신뢰할 수 없게 된다면, 비주권화 / 탈중앙화된 AI는 지속적으로 고가용성 서비스를 제공하여 특정 국가 / 지역 또는 인류가 AI 서비스를 잃고 마비 상태에 빠지는 것을 방지할 수 있습니다.

  • 계산 능력의 실용화

ETH가 PoW에서 PoS로 전환한 배경에는 "채굴이 가치를 생산하지 않는다"는 비판이 있으며, Web3와 AI를 결합하면 계산 능력의 실용화 장면을 제공하여 기존 계산 능력을 소화하고 총 계산 능력을 성장시키는 효과를 실현할 수 있습니다.

  • 가상 자산화

AI는 계산 능력과 저장소에서 원천적으로 발생하는 자산이며, Web3와 AI의 결합은 AI를 가상 자산으로 전환할 수 있는 통로를 제공하여 AI 산업의 가치 실현과 동시에 Web3에 진정한 원주율 가상 자산을 창출할 수 있습니다.

  • Web3 애플리케이션의 변동성

Web3와 AI의 결합은 Web3 애플리케이션에 새로운 기능과 성장 기회를 가져올 수 있으며, 기존의 Web3 애플리케이션은 모두 다시 만들어질 수 있습니다.

마무리: 9월, 지금 AI는 여전히 창업할 가치가 있는가

결론부터 말씀드리자면: 가치가 있으며, 이 결론은 아마도 설날까지도 유효할 것입니다.

사람들은 상황에 대한 인식에 종종 편차가 있으며, 필자도 예외는 아닙니다. 어떤 사람은 지나치게 낙관적이고, 어떤 사람은 지나치게 비관적입니다. 필자는 두 팀과 대화한 적이 있는데, 한 팀은 내년 1분기에 AI 에이전트를 만들 수 있다고 생각하고, 다른 팀은 AI가 지식 관리 작업에만 적합하다고 생각했습니다. 분명히 전자는 지나치게 낙관적이고, 후자는 비관적입니다.

장기적인 계획을 세울 때 지나치게 낙관적이거나 비관적이면 함정에 빠질 수 있으며, 널리 퍼진 발언은 종종 이러한 편차가 큰 발언입니다. 독립적인 사고가 더욱 소중해집니다. 따라서 독자가 본 문서의 관점을 수용할 수 있든 없든, 독자가 읽는 과정에서 독립적인 사고와 판단을 하게 된다면 필자는 매우 기쁩니다.

체인캐처(ChainCatcher)는 독자들에게 블록체인을 이성적으로 바라보고, 리스크 인식을 실제로 향상시키며, 다양한 가상 토큰 발행 및 조작에 경계해야 함을 상기시킵니다. 사이트 내 모든 콘텐츠는 시장 정보나 관련 당사자의 의견일 뿐이며 어떠한 형태의 투자 조언도 제공하지 않습니다. 만약 사이트 내에서 민감한 정보를 발견하면 “신고하기”를 클릭하여 신속하게 처리할 것입니다.
체인캐처 혁신가들과 함께하는 Web3 세상 구축