Google giới thiệu vi xử lý TPU thế hệ thứ hai, 45 TFLOPS , tăng tốc tác vụ machine learning

pegasus3390

Well-Known Member
google-cloud-tpu-800x450.jpg


Google trong sự kiện I/O của hãng đã giới thiệu vi xử lý tùy biến Tensor Processing Unit (TPU) dành cho machine learning trong hôm nay. Những con chip này được thiết kế tập trung vào việc tăng tốc các tác vụ machine learning, và sẽ có hiệu năng còn cao hơn cả CPU hay thậm chí là GPU trong các tác vụ này đồng thời là bản nâng cấp so với thế hệ đầu tiên được công bố cũng tại sự kiện này vào năm ngoái.

Điều này cho phép chúng ta có thể tạo ra được xây dựng được một mẫu machine learning, ví dụ như để định dạng được chính xác đối tượng trong hình là cái cây, con mèo hoặc cái xe. Việc suy luận thông qua machine learning cần phải có khả năng thống kê đủ để máy có thể hiểu đâu là kết luận chính xác – ví dụ theo hình mẫu thì chúng ta chắc chắn 85% vật thể đó là cây chứ không phải là một nhánh bông cải.

Câu hỏi đặt ra là con chip này nhanh cỡ nào? Để dễ hình dung với một mô hình dịch thuật cỡ lỡn đòi hỏi phải tốn đến cả ngày xử lý của 32 GPU thương mại mạnh nhất thế giới trong khi chỉ với 1/8 sức mạnh của một con chip TPU có thể xử lý vấn đề này trong một buổi chiều. (Theo Google)

Thực ra rất khó để hiểu một cách chính xác cách thức so sánh này trên thực tế nhưng ít nhất chúng ta cũng có thể mườn tượng được về tốc độ khi so sánh với các GPU thông thường, những con chip mạnh mẽ nhất được sử dụng cho hoạt động machine learning ngày nay.

(Cập nhật con chip mới có sức mạnh đến 45 TFLOPS, có tốc độ cao hơn từ 15 đến 30 lần và tiết kiệm năng lượng từ 30 đến 80 lần so với GPU và CPU thương mại. Các con chip này được sắp xếp theo từng module với 4 con chip mỗi module với khả năng xử lý 180 TFLOPS mỗi module và kết hợp 64 module này thành 1 pod với khả năng tính toán lên đến 11.5 PFLOPS)

Ngoài ra, Google còn tích hợp thêm dịch vụ Google Cloud Platform cùng với con chip và điều này góp phần làm giảm bớt rào cản để tiếp cận với công nghệ này. Nó cũng cho phép người dùng có thể xây dựng mô hình riêng trên các con chip cạnh tranh như Intel Skylake hay GPU Volta của Nvidia sau đó chuyển sang hệ thống xử lý TPU trên đám mây để thực hiện các xử lý cuối cùng.

Điều đáng nói là chúng ta sẽ không gặp rào cản về chi phí khi mà dịch vụ này miễn phí truy cập vào TensorFlow Research Cloud được trang bị đến 1000 con chip TPU trên đám mây để phục vụ cho việc nghiên cứu machine learning

 
Bên trên