비교적 최근까지 이러한 프레임워크의 대부분은 NVIDIA의 CUDA API 및 GPU 하드웨어를 대상으로 했습니다. 그러나 오픈 소스 커뮤니티와 Intel, AMD 및 기타 회사에서 일하는 개발자의 노력 덕분에 이러한 프레임워크 중 상당수가 현재 원하는 거의 모든 하드웨어에서 실행될 수 있습니다. 실제로 이는 Intel이 방금 발표한 “500개 이상의 AI 모델이 Intel Core Ultra 프로세서에서 최적화되어 실행됩니다”라는 제목의 릴리스의 주제입니다.
Intel은 자사 하드웨어에서 AI를 실행하기 위한 유효한 대상으로 OpenVINO, PyTorch, ONNX 및 Hugging Face 모델 저장소를 호출합니다. 실제로 이 네 가지 목표는 현재 사용 가능한 로컬 호스팅 AI의 대부분을 구성합니다. 이 네 가지만 지원하면 대규모 언어 모델, 이미지 디퓨저 및 업스케일러, 객체 감지 및 컴퓨터 비전, 이미지 분류, 추천 엔진 등을 포함한 모든 종류의 AI 모델을 호스팅하고 실행할 수 있습니다.
Advertisement
물론 Chipzilla는 Core Ultra 프로세서보다 훨씬 더 많은 AI 지원 하드웨어를 갖추고 있지만 중요한 점은 클라이언트 시스템에서 AI를 실행하려는 경우 개별 GPU를 대상으로 할 필요가 없다는 것입니다. 인텔 확실히 하고 싶어 소문은 사라졌습니다. AI는 민주화되었으며 현재로서는 원하는 곳 어디에서나 실행할 수 있습니다. 대상 시스템에 충분한 RAM이 있는지 확인하면 됩니다.