Inference là cụm GPU phân tán cho suy luận LLM được xây dựng trên Solana. Inference.net là mạng lưới toàn cầu của các trung tâm dữ liệu phục vụ API trả tiền theo mã thông báo, có khả năng mở rộng và nhanh cho các mô hình như DeepSeek V3 và Llama 3.3.