Thinking Machines Lab은 AI 모델을보다 일관성있게 만들고 싶어합니다.

Thinking Machines Lab은 AI 모델을보다 일관성있게 만들고 싶어합니다.

Mira Murati의 Thinking Machines Lab이 20 억 달러의 종자 자금 지원과 실험실에 합류 한 전 Openai 연구원의 올스타 팀에 큰 관심을 가지고있었습니다. 수요일에 출판 된 블로그 게시물에서 Murati의 Research Lab은 세상에 프로젝트 중 하나를 처음으로 살펴 보았습니다. 재현 가능한 응답으로 AI 모델 생성.

“LLM 추론에서 비정상적 인 패배”라는 제목의 연구 블로그 게시물은 AI 모델 응답에서 무작위성을 소개하는 근본 원인을 풀려고합니다. 예를 들어, Chatgpt에게 같은 질문을 몇 번 이상 물어 보면 광범위한 답변을 얻을 수 있습니다. 이것은 AI 커뮤니티에서 사실로 인정되었습니다. 오늘날의 AI 모델은 비 결정적 시스템으로 간주됩니다. 그러나 Thinking Machines Lab은 이것을 해결 가능한 문제로 본다.

Thinking Machines Lab 연구원 Horace He가 저술 한이 게시물은 AI 모델의 무작위성의 근본 원인은 GPU 커널 (NVIDIA의 컴퓨터 칩 내부에서 실행되는 작은 프로그램이 추론 처리에서 함께 꿰매어지는 방식”이라고 주장합니다. 그는이 오케스트레이션 층을 신중하게 제어함으로써 AI 모델을보다 결정적으로 만들 수 있다고 제안합니다.

그는 기업과 과학자들에 대한보다 신뢰할 수있는 반응을 만들어내는 것 외에도 AI 모델을 재현 가능한 응답을 생성하면 RL (Rencement Learning) 교육을 향상시킬 수 있다고 지적했다. RL은 AI 모델에 정답을 보상하는 과정이지만 답이 약간 다르면 데이터가 약간 시끄럽게됩니다. HE에 따르면보다 일관된 AI 모델 응답을 만들면 전체 RL 프로세스가 “매끄럽다”고 해당됩니다. Thinking Machines Lab은 투자자들에게 RL을 사용하여 비즈니스에 대한 AI 모델을 사용자 정의 할 계획이라고 이전에보고했습니다.

Openai의 전 최고 기술 책임자 인 Murati는 7 월에 Thinking Machines Lab의 첫 번째 제품은 앞으로 몇 달 안에 공개 될 것이며“맞춤형 모델을 개발하는 연구원과 신생 기업에 유용 할 것”이라고 말했다. 그 제품이 무엇인지, 또는이 연구의 기술을 사용하여보다 재현 가능한 반응을 생성 할 것인지는 여전히 불분명합니다.

Thinking Machines Lab은 또한 블로그 게시물, 코드 및 기타 정보를 자주 게시하여“대중에게 혜택을주고 우리 자신의 연구 문화를 개선하기위한”노력에 대한 연구에 대한 기타 정보를 자주 게시 할 계획이라고 밝혔다. 회사의 새로운 블로그 시리즈 중 첫 번째 “Connectionism”이라는이 게시물은 이러한 노력의 일부인 것 같습니다. OpenAi는 또한 설립되었을 때 Open Research를 공개하겠다고 약속했지만 회사는 점점 커질수록 더욱 폐쇄되었습니다. Murati의 연구 실험실 이이 주장에 충실한 지 확인할 것입니다.

이 연구 블로그는 실리콘 밸리의 가장 비밀스러운 AI 스타트 업 중 하나에서 드문 엿볼 수 있습니다. 기술이 어디로 가고 있는지 정확히 밝히지는 않지만 Thinking Machines Lab은 AI 연구의 국경에서 가장 큰 질문 중 일부를 다루고 있음을 나타냅니다. 실제 테스트는 Thinking Machines Lab이 이러한 문제를 해결할 수 있는지 여부입니다.

TechCrunch 이벤트

샌프란시스코
|
2025 년 10 월 27-29 일

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다