Bài 3: Kiến trúc Chip AI: Từ Von Neumann đến kiến trúc neuromorphic – Tương lai sau silicon là gì?

Khám phá hành trình tiến hóa của kiến trúc chip AI từ mô hình Von Neumann đến Neuromorphic – Liệu tương lai hậu silicon sẽ ra sao trong kỷ nguyên trí tuệ nhân tạo?

Kiến trúc Von Neumann – nền móng của máy tính hiện đại

Từ năm 1945, phần lớn máy tính hiện đại đều dựa trên kiến trúc Von Neumann – trong đó bộ xử lý (CPU) và bộ nhớ (RAM) là hai khối tách biệt, giao tiếp qua một kênh gọi là bus.

Đặc điểm:

  • Lệnh và dữ liệu được lưu trữ chung trong bộ nhớ
  • Mỗi chu kỳ xử lý gồm: nạp lệnh → giải mã → thực thi → lưu kết quả
  • Bộ xử lý phải liên tục trao đổi dữ liệu với bộ nhớ

Mặc dù kiến trúc này rất linh hoạt, nhưng khi ứng dụng vào AI – nơi dữ liệu khổng lồ và yêu cầu tính toán ma trận cực cao – thì nó gặp một giới hạn lớn: bottleneck truyền dữ liệu, còn gọi là Von Neumann Bottleneck.

Vấn đề khi xử lý AI bằng kiến trúc truyền thống

Các mô hình AI hiện đại như GPT-4, Stable Diffusion hay AlphaFold yêu cầu hàng tỷ phép tính mỗi giây và truy cập hàng triệu lần vào bộ nhớ.

Hậu quả:

  • Tốc độ bị giới hạn bởi băng thông giữa CPU và bộ nhớ
  • Tiêu tốn năng lượng lớn khi di chuyển dữ liệu
  • Khó mở rộng khi mô hình AI ngày càng lớn

Chính vì vậy, ngành bán dẫn đang tìm kiếm kiến trúc mới – không chỉ nhanh hơn mà còn hiệu quả năng lượng hơn, chuyên biệt cho tác vụ AI.

Kiến trúc Memory-centric và Near-memory computing

Để khắc phục “nút cổ chai” Von Neumann, một xu hướng là đưa bộ xử lý gần hơn với bộ nhớ.

  1. Near-memory computing: Di chuyển khối tính toán đến sát bộ nhớ DRAM, giảm thời gian truyền tải dữ liệu
  2. In-memory computing: Tích hợp logic xử lý ngay bên trong ô nhớ, cho phép thực hiện tính toán trong khi lưu trữ

Ưu điểm:

  • Giảm tiêu hao năng lượng đáng kể (truyền dữ liệu vốn tiêu tốn gấp 100x năng lượng so với tính toán)
  • Phù hợp với tác vụ AI như ma trận, vector, các phép cộng – nhân đơn giản

Một số công ty tiên phong:

  • Samsung: phát triển chip PIM (Processing-in-Memory)
  • IBM: nghiên cứu in-memory AI accelerator
  • Tsinghua University (Trung Quốc): chip AI nội suy trực tiếp trong SRAM

Kiến trúc Neuromorphic – mô phỏng não bộ

Nếu chip hiện tại hoạt động theo logic toán học, thì neuromorphic computing lại mô phỏng cấu trúc và cách hoạt động của hệ thần kinh sinh học.

Điểm khác biệt:

  • Gồm các “neuron” và “synapse” nhân tạo
  • Dữ liệu và xử lý được phân tán – không cần chia tách rõ giữa RAM và CPU
  • Hoạt động dựa trên sự kiện (event-driven), không cần đồng hồ hệ thống

Ưu điểm:

  • Rất tiết kiệm năng lượng
  • Xử lý dữ liệu thời gian thực nhanh hơn
  • Tự học và thích nghi theo hoàn cảnh

Ví dụ:

  • Intel Loihi: con chip neuromorphic có khả năng học thời gian thực
  • BrainChip Akida: NPU tích hợp neuromorphic dành cho thiết bị IoT
  • IBM TrueNorth: mô phỏng hơn 1 triệu neuron với tiêu thụ điện cực thấp

Kiến trúc chip mô-đun và chiplet – hướng đi khả thi hiện tại

Khi kích thước chip ngày càng lớn (do mô hình AI phình to), xu hướng mới là chia nhỏ chip thành các mô-đun – gọi là chiplet – rồi kết nối chúng lại trên một bảng mạch thống nhất.

Ưu điểm:

  • Dễ mở rộng hiệu năng
  • Sản xuất từng phần riêng lẻ → giảm tỷ lệ lỗi
  • Cho phép ghép GPU + AI engine + DRAM trên cùng hệ thống

Ví dụ:

  • AMD MI300: GPU AI mạnh nhất của AMD dùng kiến trúc chiplet
  • Intel Ponte Vecchio: hơn 40 chiplet kết nối với nhau
  • TSMC: phát triển công nghệ packaging 3D để hỗ trợ chiplet mạnh hơn

Vật liệu mới sau thời kỳ silicon

Khi bóng bán dẫn silicon ngày càng nhỏ (hiện đang ở 3–5nm), các giới hạn vật lý bắt đầu lộ rõ. Vì vậy, ngành bán dẫn AI đang thử nghiệm:

  1. Graphene: dẫn điện tốt gấp 100 lần silicon, cực kỳ mỏng
  2. GaN (Gallium Nitride): hiệu suất cao hơn silicon, chịu nhiệt tốt
  3. Optical/Photonics chip: xử lý tín hiệu bằng ánh sáng thay vì điện tử → tốc độ cao hơn, ít tỏa nhiệt
  4. Carbon Nanotube: thay thế transistor truyền thống với kích thước vài nanomet

Các vật liệu này tuy chưa thương mại hóa rộng rãi, nhưng được kỳ vọng sẽ thay thế silicon trong thập kỷ tới – đặc biệt cho AI cần hiệu năng cao và độ trễ cực thấp.

Kết luận

Từ kiến trúc Von Neumann cổ điển, ngành bán dẫn đang chuyển mình sang những hướng đi mới và táo bạo: đưa tính toán sát với dữ liệu, mô phỏng não bộ, hay chia nhỏ hệ thống thành các mô-đun linh hoạt.

Trong thời đại AI, chỉ có phần cứng được thiết kế chuyên biệttối ưu hóa triệt để cho AI mới có thể đáp ứng được nhu cầu khổng lồ của trí tuệ nhân tạo thế hệ mới.

Sự thay đổi kiến trúc chip không chỉ giúp AI chạy nhanh hơn, mà còn mở ra cơ hội thiết kế AI chạy trực tiếp trên điện thoại, drone, kính thực tế tăng cường – mà không cần phụ thuộc cloud.

>>> Bài trước: Cuộc chạy đua bán dẫn giữa Mỹ, Trung Quốc, Hàn Quốc – Ai sẽ nắm quyền kiểm soát AI toàn cầu?