인텔은 코어 울트라 CPU에 최적화된 500개 이상의 AI 모델을 보유하고 있습니다.

“AI”란 무엇입니까? 간단히 말해서, 요즘 우리가 “AI”라는 용어를 사용하는 방식은 약간 오해의 소지가 있습니다. 이는 주로 신경망에 대해 설명합니다. 기능적으로는 데이터를 넣은 다음 원하는 방식으로 다른 데이터를 집어넣는 블랙박스입니다. 하지만 신경망은 프로그램이 아닙니다. 실행 가능하지 않습니다. 체크포인트를 클릭하고 다른 애플리케이션처럼 실행할 수는 없습니다. 그들은 다양한 프레임워크를 사용하여 데이터를 설정하고 처리합니다.

비교적 최근까지 이러한 프레임워크의 대부분은 NVIDIA의 CUDA API 및 GPU 하드웨어를 대상으로 했습니다. 그러나 오픈 소스 커뮤니티와 Intel, AMD 및 기타 회사에서 일하는 개발자의 노력 덕분에 이러한 프레임워크 중 상당수가 현재 원하는 거의 모든 하드웨어에서 실행될 수 있습니다. 실제로 이는 Intel이 방금 발표한 “500개 이상의 AI 모델이 Intel Core Ultra 프로세서에서 최적화되어 실행됩니다”라는 제목의 릴리스의 주제입니다.

헤드라인은 그 이야기를 거의 말해 줍니다. Intel의 Core Ultra 프로세서에 우수한 성능을 발휘하여 배포할 준비가 된 수백 개의 AI 모델이 있습니다. 이 칩에는 특수 CPU 명령, 강력한 통합 Arc GPU, 물론 전용 NPU 또는 신경 처리 장치 형태의 AI 처리 가속 기능이 있습니다. Core Ultra 프로세서의 세 부분 중 하나를 사용하거나 이들의 조합을 사용하여 AI 처리 작업에 대한 견고한 성능을 얻을 수 있습니다. 그러나 어느 것을 목표로 삼을지는 정확한 요구 사항과 AI 모델에 따라 다릅니다. 고용.
인텔 npu 주장
Intel은 자사의 NPU가 레거시 CPU에 비해 ​​엄청난 AI 이점을 제공한다고 말합니다.

Intel은 자사 하드웨어에서 AI를 실행하기 위한 유효한 대상으로 OpenVINO, PyTorch, ONNX 및 Hugging Face 모델 저장소를 호출합니다. 실제로 이 네 가지 목표는 현재 사용 가능한 로컬 호스팅 AI의 대부분을 구성합니다. 이 네 가지만 지원하면 대규모 언어 모델, 이미지 디퓨저 및 업스케일러, 객체 감지 및 컴퓨터 비전, 이미지 분류, 추천 엔진 등을 포함한 모든 종류의 AI 모델을 호스팅하고 실행할 수 있습니다.

Advertisement

물론 Chipzilla는 Core Ultra 프로세서보다 훨씬 더 많은 AI 지원 하드웨어를 갖추고 있지만 중요한 점은 클라이언트 시스템에서 AI를 실행하려는 경우 개별 GPU를 대상으로 할 필요가 없다는 것입니다. 인텔 확실히 하고 싶어 소문은 사라졌습니다. AI는 민주화되었으며 현재로서는 원하는 곳 어디에서나 실행할 수 있습니다. 대상 시스템에 충분한 RAM이 있는지 확인하면 됩니다.