주식종합토론
게시판버튼
게시글 제목
마음AI(377480)밀릴때마다 물량 모아둘 기회로 보이며, 이후 전망 및 대응전략게시글 내용
마음AI(377480)가 현지시간으로 7일부터 10일까지 라스베이거스에서 열리는 'CES 2025'에서 온프레미스 거대언어모델(LLM), 온디바이스 인공지능(AI), 엔드투엔드(E2E) 자율주행 드라이빙 키트(Kit)를 제품화해 최초로 선보였다고 올 1월9일 밝혔다. 3가지 핵심 모듈은 AI 기술이 실질적으로 △기업의 비용 절감 △생산성 향상 △새로운 성장 동력으로 활용되는 방안 등을 시연을 통해 보여준다.
마음AI와 퀄컴의 협업으로 탄생한 온디바이스 AI '수다(SUDA)'는 퀄컴의 사물인터넷(IoT) 시스템온칩(SoC) 솔루션 기반으로 음성인식(STT), LLM, 음성생성(TTS) 기술을 탑재했다. 이를 통해 다양한 IoT 애플리케이션에 활용 가능성을 제시한다. 퀄컴 SoC의 신경망처리장치(NPU) 기반 LLM 처리 지연 시간을 단축시키며, 온디바이스 LLM 기반 음성 상호작용 서비스를 구현한다. 인터넷 연결 없이도 음성대화가 가능해 개인정보 침해를 원천적으로 차단할 수 있다.온프레미스 LLM '말(MAAL)' 법률 상담, 문서 작성, 데이터 분석 등 복잡한 작업을 자동화하고 생산성과 효율성을 극대화했다.자율주행 모듈 '워브(WoRV)'는 차량의 인지, 판단, 제어를 하나로 통합한 엔드투엔드 자율주행 솔루션이다. 복잡한 도심 환경에서도 뛰어난 성능을 발휘하며, 기존 자율주행 기술의 한계를 넘어선 차세대 이동 혁명을 이끈다는 설명이다.
유태준 마음AI 대표는 "CES 2025에서 공개하는 우리의 AI 기술은 단순한 진보를 넘어, 기업과 사회가 직면한 문제를근본적으로 해결할 수 있는 새로운 가능성을 제시한다"며 "마음AI는 AI를 통해 기업의 성공을 지원하고, 인간의 삶을 더 나은 방향으로 변화시키는 데 전념하고 있다"고 말했다.
AI(인공지능) 기업 마음AI가 텍스트 기반 LLM(거대언어모델)에 이미지를 이해할 수 있는 시각 지능을 추가한 멀티모달 모델 VLM(영상 언어모델) 벤치마크를 공개한다.
마음AI의 기술 총괄 CEO(최고 경영자) 최홍섭 대표는 올 1월8일 "우리 회사는 최근 세계 최고의 인공지능 학회인 NeurIPS에서도 수상할 만큼 VLM 연구 분야에서 앞서나가고 있는 만큼, 연구개발 과정에서 한국어 모델의 성능을 제대로 측정할 벤치마크가 부족하다는 점에 큰 아쉬움을 느꼈다"며, "이에 우리가 먼저 시행착오하며 제작한 벤치마크를 공개함으로써 국내 AI 연구자들이 VLM 연구를 가속하는 마중물 역할을 하려한다"고 밝혔다.
마음AI에 따르면 VLM은 시각 지능이 추가된 LLM으로 최근 챗GPT나 제미나이 등 대표적인 생성형 AI 모델들도 VLM으로 분류된다.
LLM의 성능을 객관적으로 비교할 텍스트 기반의 벤치마크들은 다양하게 공개되어 있는 반면, 이미지에 대한 이해와 언어적인 능력을 동시에 측정해야 하는 VLM에 대한 벤치마크는 상대적으로 여전히 부족하다. 특히 한국어 기반의 VLM 벤치마크가 아직 많이 부족하기 때문에, 국내 연구자들이 한국어 VLM 성능을 객관적으로 비교할 만한 기준이 없다는 한계가 있었다.
이에 마음AI는 그동안 연구개발 과정에서 자체적으로 모델의 성능을 평가하기 위한 벤치마크 데이터셋을 만들어 운영해왔다. 이번에 이를 국내의 많은 연구자들도 활용할 수 있도록 공개하는 것이다.
이번에 공개하는 한국어 VLM 벤치마크는 최근 한국어 LLM 벤치마크에서 가장 신뢰도가 높다고 평가 받는 LogicKor 벤치마크의 설계 철학을 상당 부분 차용했다. 마음AI는 약 300개의 고품질 데이터로 구성된 간결한 설계를 통해 과도한 리소스 소모 없이 정밀한 평가를 가능하게 했다. 또 오픈소스 LLM인 오픈소스 LLM인 Gemma 9B를 사용해 챗GPT와 같은 유료 API 없이 실행하도록 해 비용을 줄일 수 있도록 했다.
벤치마크의 주제를 설계할 때도 한국 사용자와 환경에 적합하도록 신경을 썼다. 해외 VLM 벤치마크의 다양한 주제들을 참고하면서도, 한국 사용자 환경에 밀접한 10가지 주제로 구성했다. 이 주제들은 색상, 숫자, 존재 여부 등 객체의 속성에 대한 질문들과, 한국어 콘텐츠를 인식하는능력, 문서나 표, 그래프를 이해하는 능력, 할루시네이션(환각) 등으로 구성됐다. 한국어 사용자들이 VLM을 실제 사용하는 데 있어서 겪게 되는 주요 사례들을 포괄하며, 모델의 신뢰성까지 측정할 수 있도록 했다.
마음AI는 이번에 한국어 VLM 벤치마크를 공개함으로써 국내 VLM 연구와 응용을 활성화하는 데 기여할 것으로 기대하고 있다. 벤치마크 데이터셋과 추론 코드는 가까운 시일 내에 깃헙을 통해 공개할 예정이며, 이 때 마음AI가 자체적으로 개발한 한국어 VLM과 학습데이터셋도 함께 오픈소스로 공개한다. 현재는 허깅페이스 사이트에서 해당 벤치마크를 활용한 리더보드를 먼저 확인할 수 있다.
마음AI(377480)가 세계 최고 권위의 인공지능(AI) 학회인 '신경정보처리시스템학회(NeurIPS) 2024'에서 '최우수논문상(Outstanding Paper Awards)'을 수상하는 쾌거를 이뤘다고 작년 12월26일 밝혔다.
이는 지난 15일 폐회한 'NeurIPS Open-World Agents' 워크숍에서 구두 발표(Oral Presentation)에 선정됐던 6개 논문 중 상위 3개 논문에게만 주어진 영예다.
마음AI 관계자는 "국내 기업이나 대학의 논문이 NeurIPS에서 구두 발표(Oral Presentation)에 선정되는 것도 드문 일인데, 최우수논문상 수상은 검색조차 되지 않는 전례를 찾아볼 수 없는 성과"라고 강조했다.
NeurIPS는 인공지능(AI) 분야에서 가장 권위 있는 학회로, 매년 수만 건의 논문 중 극소수만이 최종 채택된다.
올해 NeurIPS Open-World Agents 워크숍에서 구두 발표로 선정된 상위 6개의 논문은 마음AI를 제외하면 마이크로소프트, 구글 딥마인드, 스탠포드대학교, 베이징대학교 등 세계 유수의 기업·학교에서 제출한 것이다.
마음AI는 그 중에서도 최고 중의 최고를 가리는 최우수논문상에 선정되며 마이크로소프트, 딥마인드와 어깨를 나란히 했다.
이번에 수상한 논문 'Integrating Visual and Linguistic Instructions for Context-Aware Navigation Agents'는 마음AI와 연세대학교 미르랩이 공동 연구한 결과물로, 최근 AI 업계에서 가장 주목받는 '엔드투엔드 로봇 파운데이션 모델(End-to-End Robot Foundation Model)' 분야의 선구적인 연구다.
이 논문에서 마음AI는 국내 최초로 비전언어행동(VLA·Vision Language Action) 모델 '캔버스(CANVAS)'를 공개했다. 카메라로 환경을 인지하고(Vision), 이를 언어적으로 이해하며(Language), 로봇을 제어(Action)하는 새로운 AI 기술의 표준을 제안한 것이다.
해당 기술은 테슬라와 같은 글로벌 선도 기업들도 천문학적인 투자를 아끼지 않는 분야로, 마음AI가 이에 뒤지지 않는 독보적인 기술력으로 세계 시장에 도전장을 던진 셈이라는 설명이다.
이번 논문의 1저자이자 NeurIPS 학회에서 직접 논문을 발표한 조용준 마음AI 선임연구원은 "이번 학회 기간 동안 테슬라, 구글 웨이모, 크루즈 등 주요 자율주행 로봇 회사의 연구원들과 교류하며 VLA 기술에 대한 뜨거운 관심을 확인할 수 있었다"고 말했다.
이어 "이들 최고 회사 소속의 연구원들도 마음에이아이의 연구가 VLA 기술 상용화를 위한 방향을 잘 잡았다는 점을 인정했다"는 자신감을 내비쳤다.
마음AI는 최근 이 기술을 기반으로 주행 분야에 특화된 제품 '워브(WoRV)'를 출시했다. 내년 상반기 내에 국내 농기계 자율주행 스타트업과의 협업을 통해 실제 상용화된 제품으로 출시될 예정이다.
농기계와 같은 특수 환경에서 자율주행 기술을 구현하는 데 적합한 CANVAS는, 변화가 많은 야외 환경에서도 높은 성능을 발휘하기 때문에 청소차, 군용 자율 이동체와 같이 어려운 활용 사례에 적합하다.
최홍섭 마음AI 기술총괄 CEO 대표는 "국내에서는 아직 VLA 기술이 생소하다. 하지만 글로벌 기업들은 이 기술이 자율주행·로봇 분야의 패러다임을 바꿀 수 있는, 챗GPT(ChatGPT)의 파급력을 훨씬 상회하는 차세대 기술로 주목하고 있다"고 언급했다.
또한 "누구보다 빨리 시작해 이미 핵심적인 기술과 상용화 노하우들을 확보한 만큼, 수년 내 국내외 주요 자율주행·로봇 제조사들이 우리 회사를 찾게 될 것"이라고 포부를 전했다.
한편 마음AI는 이번에 수상한 논문과 같이 새로운 AI 모델을 개발하는 것과 동시에, 이를 경량화해 온디바이스AI용 칩에 탑재하는 연구도 활발하게 진행 중이다. 2025년 2월 말에는 '워브' 모델을 탑재한 차량·로봇 자율주행 제어용 온디바이스AI 모듈 제품을 정식 출시할 예정이다.
마음AI(377480)와 도구공간이 지난 18일 한국로봇산업진흥원의 서비스 로봇 실증사업을 성공적으로 마무리했다고 작년 12월23일 밝혔다. 이번 실증사업을 통해 두 회사는 무인화 기술의 상용화 가능성을 입증하며 임바디드 AI(EAI·Embodied AI)의 미래 비전을 제시했다.실증사업에서 핵심 역할을 한 협력 솔루션은 도구공간의 로봇 하드웨어 '에이든(AIden)'에 마음AI의 인공지능(AI) 모델인 '수다(SUDA)'와 '워브(WoRV)'를 탑재해 인력을 대체할 수 있는 무인화 컨셉을 실현했다.
에이든은 무인 안내, 작업 자동화, 음성 기반 IoT 제어 등 다양한 환경에서 활용 가능성을 입증하며 주목받았다.
특히, '수다'는 음성인식(STT), 대규모 언어 모델(LLM), 음성합성(TTS)을 통합한 온디바이스 AI 솔루션이다. 인터넷 연결 없이도 실시간으로 사용자와 자연스럽게 소통하며 작업을 수행할 수 있도록 설계됐다. 이를 통해 공항, 도서관, 병원 등 공공시설은 물론, 스마트 환경에서 자율적으로 관리 및 지원하는 무인화 서비스를 제공할 수 있다.
손병희 마음AI의 연구소장(박사)는 "한국로봇산업진흥원 서비스 로봇 실증사업을 통해 도구공간과의 기술적 조화를 성공적으로 검증했다"며 "이번 성과를 기반으로 무인화 기술의 발전과 상용화를 더욱 가속화할 것"이라고 전했다.
김진효 도구공간 대표는 "에이든은 하드웨어 기술과 AI의 융합으로 완성된 무인화 로봇의 상징적 모델"이라며 "이번 실증사업의 성공을 통해 무인화 기술의 새로운 가능성을 입증했다"고 말했다.
한편 마음AI는 CES 2025에 참가해 임바디드 AI를 중심으로 한 라이브 데모와 기술 발표를 진행할 예정이다. CES 2025는 1월7일부터 10일까지 미국 라스베이거스에서 개최되며, 마음AI의 기술력을 글로벌 시장에 알리며 관람객들에게 새로운 사용자 경험을 제공할 계획이다.
마음AI의 주가가 주식시장에서 강세를 보이고 있다. 퀄컴과의 협업을 통해 QCS6490 프로세서에 STT, LLM(라마 v3.2 1B), TTS 를 탑재하는데 성공했다는 소식이 전해지면서다.
작년 12월17일 주식시장과 마음AI에 따르면 임바디드 AI(EAI,Embodied AI) 선도 기업인 마음AI가 오는 CES 2025에서 퀄컴 테크놀로지스(Qualcomm Technologies, 이하 퀄컴)와의 온디바이스 AI 협력 성과를 공개한다. 마음AI는 내년 1월7일부터 10일까지 열리는 CES 전시회에 단독 부스로 참여하며, 메인 전시로 거대언어모델(LLM) 기반 음성 대화 제품인 '수다(SUDA)'를 내세운다.'수다'는 퀄컴 QCS6490 프로세서(Qualcomm® QCS6490 processor) 기반의 퀄컴 RB3 2세대 플랫폼(Qualcomm® RB3 Gen 2 platform)을 탑재해 음성 대화를 위한 음성인식(STT), LLM, 문자인식(TTS)을 지원하며 인터넷 연결 없이 디바이스 상에서 음성 대화가 가능하게 만든 것이 특징이다.퀄컴의 QCS6490 프로세서는 스마트홈, 운송, 창고 관리, POS 키오스크, 커넥티드 헬스케어, 물류 관리 등 산업용 사물인터넷(IoT) 애플리케이션에 최적화된 플랫폼이다. 향후 무궁무진한 활용 가능성을 기대할 수 있다.마음AI는 이번 퀄컴과의 협업을 통해 QCS6490 프로세서에 STT, LLM(라마 v3.2 1B), TTS 를 탑재하는데 성공했다. QCS6490 프로세서는 마음AI가 온디바이스 LLM을 통해 원활한 음성 상호작용 서비스를 구현할 수 있게 하며, 온디바이스 비전 AI를 포함한 다른 애플리케이션을 실행할 수 있는 능력을 확보한다.마음AI는 LLM 추론 속도를 최대한 끌어올린 결과, 온디바이스 상에서 총 처리 지연시간(Total Latency)을 1.5 초 이내로 단축하는 데 성공했다. 일반적인 AI 스피커나 가전제품에 탑재된 음성 대화 모듈들에 비해 사용자 경험을 향상시킬 수 있다.CES현장에서는 RB3 2세대 플랫폼이 탑재된 온디바이스 AI '수다'를 기반으로 홈 IoT를 제어하는 시연을 공개한다.예를 들어 "너무 눈부신데"라고 말하면, LLM이 사용자의 의도를 파악하고 블라인드를 내리도록 명령을 내리는 것이다.이렇게 홈 IoT 환경에서 여러 센서나 가전제품 등을 제어하는 에이전트(Agent) 기능을 구현하기 위해 마음AI는 LLM에 함수호출(Function call) 기능을 구현했다. 이를 통해 사용자는 응용프로그래밍인터페이스(API)로 호출 가능한 모든 센서와 가전제품 등 홈 IoT 제품들을 자연어로 쉽게 제어할 수 있다.최홍섭 마음AI 기술총괄 대표는 "퀄컴의 RB3 2세대 플랫폼에 당사의 기술을 탑재할 수 있는 협업 기회를 얻게 돼 기쁘다"며 "QCS6490 프로세서에 LLM을 탑재하려는 수요가 많은 것으로 알고 있다, 앞으로도 퀄컴과 긴밀한 협력을 통해 온디바이스 AI 시장을 선도할 수 있을 것이라 기대한다"고 전했다.이러한 소식이 전해지며 마음AI에 투자자들의 매수심리가 강하게 작용하는 것으로 풀이된다.
종합 인공지능(AI) 서비스 업체. 자체 보유한 다양한 AI 기술을 맞춤 조합하여 AI 기초 알고리즘 개발부터 AI데이터 구축, 응용서비스 개발 및 클라우드 서비스 제공 그리고 Edge AI까지, 인공지능이 필요한 여러 기업 고객에게 End-to-End로 종합적인 AI 서비스를 제공. 주요 제품으로는 AICC, SmartX, maum Cloud, maum+ 등이 있음. 최대주주는 유태준 외(20.55%), 주요주주는 NAVER-BSK 청년창업5호 투자조합(6.98%).
2022년 연결기준 매출액은 82.43억으로 전년대비 18.12% 증가. 영업이익은 54.70억 적자로 67.60억 적자에서 적자폭 축소. 당기순이익은 46.76억 적자로 15.19억에서 적자전환.
작년 8월5일 9900원에서 최저점을 찍은 후 등락을 보이는 가운데 점차 저점과 고점을 높혀오는 모습에서 올 1월6일 22600원에서 고점을 찍고 밀렸으나 9일 18100원에서 저점을 찍고 저점을 높히는 중으로, 이제부턴 밀릴때마다 물량 모아둘 기회로 보여 집니다.
손절점은 17900원으로 보시고 최대한 저점을 노리시면 되겠습니다. 18600원 전후면 무난해 보이며 분할매수도 고려해 볼수 있겠습니다.목표가는 1차로 20500원 부근에서 한번 차익실현을 고려해 보시고 이후 눌릴시 지지되는 저점에서 재공략 하시면 되겠습니다. 2차는 22550원 이상을 기대 합니다.
감사합니다.
게시글 찬성/반대
- 0추천
- 0반대
댓글목록