Công nghệ của Herta

NHẬN DIỆN KHUÔN MẶT

Các thuật toán nhận dạng khuôn mặt truyền thống dựa trên các tính năng cơ bản. Thuật toán này, bước đầu tiên là phát hiện ra một loạt các điểm tương đối bất biến trên khuôn mặt (khóe mắt và miệng, lỗ mũi, v.v.). Thông thường, số điểm nằm trong khoảng từ 10 đến 300. Sau đó, sau khi căn chỉnh khuôn mặt, thuật toán đã trích xuất thông tin từ đặc điểm cơ bản này, mỗi điểm một điểm, sử dụng các tính năng hình ảnh nhất định (ví dụ:HOG, SIFT, SURF … hoặc kết hợp giữa các thuật). Các mẩu thông tin khác nhau được ghép nối thành một tính năng duy nhất và tùy ý kích thước của nó được giảm xuống để giúp lưu trữ dễ dàng hơn và nhanh chóng so sánh với các tính năng khác.

Với thuật toán đó, số điểm tương đương với độ chính xác của dự đoán. Điều này không hoàn toàn đúng: nếu các điểm được căn chỉnh tốt, nhìn chung nhiều điểm sẽ cho độ chính xác cao hơn cho một phương thức nhất định, nhưng độ chính xác phụ thuộc vào tính năng và phân loại cụ thể.

DEEP LEARNING (HỌC SÂU)

Các thuật toán học sâu, hiện đang là công nghệ tiên tiến trên hầu hết các ứng dụng thị giác máy tính, hoạt động khác nhau. Họ áp dụng các bộ lọc tích chập và phi tuyến tính lặp đi lặp lại trên một hình ảnh gốc. Mỗi lớp ứng dụng xử lý hình ảnh và trích xuất thông tin theo thứ tự cao hơn. Sau nhiều lớp của các ngân hàng bộ lọc này (thường là từ hàng chục đến hàng trăm), các khuôn mặt được mã hóa trực tiếp thành các mẫu nhỏ rất nhanh để so sánh và mang lại kết quả chính xác hơn nhiều.

Điều thú vị về học sâu là cách trích xuất các tính năng trực quan không được xác định thủ công, như trước đây, nhưng nó được học tối ưu bởi chính hệ thống trong quá trình học. Vì vậy, tất cả các quá trình căn chỉnh / mặt trước, nội địa hóa các khu vực thú vị, vv được thực hiện bởi mạng. Bạn không cần phải nói cho thuật toán biết các điểm thú vị ở đâu, cũng như làm thế nào để trích xuất thông tin, vì nó tự học.

Học sâu là một nhánh của máy học. Nó đặc biệt phù hợp với một số nhiệm vụ học tập nhất định, vì nó có xu hướng mở rộng độ chính xác và khái quát hóa với dữ liệu đào tạo (do đó được hưởng lợi từ số lượng lớn của nó) và nó tự động học các biểu diễn nội bộ tốt nhất của dữ liệu để tối ưu hóa mục tiêu học tập, trái ngược với một số kỹ thuật học tập truyền thống đòi hỏi phải làm thủ công bằng tay của các đại diện đó

SỬ DỤNG NVIDIA GPU

GPU NVIDIA rất lý tưởng để đào tạo các mạng thần kinh sâu (deep neural networks), tăng tốc quá trình có thể mất một năm hoặc hơn chỉ vài tuần hoặc vài ngày. Đó là vì GPU thực hiện nhiều phép tính cùng một lúc hoặc song song. Và một khi một hệ thống được đào tạo, thì với GPU, các nhà khoa học và nhà nghiên cứu có thể khiến việc học đó hoạt động. Công việc đó liên quan đến các nhiệm vụ mà bạn nghĩ là không thể.

GPU được sử dụng để huấn luyện các mạng thần kinh sâu (deep neural networks) này bằng cách sử dụng các bộ đào tạo lớn hơn nhiều, theo thứ tự thời gian ít hơn, sử dụng cơ sở hạ tầng trung tâm dữ liệu ít hơn nhiều. GPU cũng đang được sử dụng để chạy các mô hình máy học được đào tạo này để thực hiện phân loại và dự đoán trong đám mây, hỗ trợ khối lượng dữ liệu và thông lượng lớn hơn nhiều với ít năng lượng và cơ sở hạ tầng.

Những người đầu tiên sử dụng bộ tăng tốc GPU cho học máy bao gồm nhiều công ty truyền thông xã hội và web lớn, cùng với các tổ chức nghiên cứu hàng đầu về khoa học dữ liệu và học máy. Với hàng ngàn lõi tính toán và thông lượng ứng dụng 10 – 100 lần so với chỉ riêng CPU, GPU đã trở thành bộ xử lý được lựa chọn để xử lý dữ liệu lớn cho các nhà khoa học dữ liệu.

Năm 1999, NVIDIA đã châm ngòi cho sự phát triển của thị trường game PC, định nghĩa lại đồ họa máy tính hiện đại và cách mạng hóa điện toán song song. Gần đây, việc học sâu GPU đã kích hoạt AI hiện đại – kỷ nguyên tiếp theo của điện toán – với GPU đóng vai trò là bộ não của máy tính, robot và xe tự lái có thể nhận thức và hiểu thế giới.

Bài Viết Liên Quan