Thuật Toán Trong ChatGPT (phần 3): Đơn vị từ vựng
Trong phần 2, chúng ta đã biết được về giới hạn từ vựng của ChatGPT. Trong phần này chúng ta sẽ cùng tìm hiểu về...
[Speech Processing] Nhận dạng giọng nói bằng Mô hình Markov ẩn (HMM)
Giới thiệu về mô hình Markov ẩn Ngay khi máy tính ra đời con người đã mơ ước máy tính có thể nói chuyện với...
Giới thiệu về thuận toán K láng giềng (K nearest neighbor) trong machine learning
Giới thiệu sơ lược về thuật toán K láng giềng Thuật toán K láng giềng gần nhất (K nearest neighbor) viết tắt là KNN. Đây là thuật toán sử dụng trong machine learning với phương pháp học có giám sát để phục vụ cho việc đưa ra quyết định hoặc dự đoán tương lai. KNN sử dụng công thức toán học để chọn ra K phần tử gần nhất từ tập dữ liệu data trainning để đưa ra quyết định. Thuật toán hoạt động trên nguyên lý hãy cho tôi biết những người xung quanh bạn tôi sẽ nói về bạn....
Natural Language Processing (P1)
Mở đầu Lâu lắm mới viết blog, hầu hết những trang blog đều là những kiến thức mình có được trong qua trình được giảng...
Nhật Bản cuối cùng thì… “Bài báo của Nikke, việc thay đổi mật khẩu định kỳ rất nguy hiểm” đã trở thành một chủ đề lớn
(Link nguồn : https://internet.watch.impress.co.jp/docs/yajiuma/1113835.html ) Ngày 26/3/2018 Thời báo kinh tế Nhật bản đã đăng thông báo rằng Bộ Nội vụ và truyền thông đã...
Tìm kiếm trong không gian trạng thái và thuật toán Ant Colony Otimization
Giới thiệu Trong loạt bài tìm kiếm trong không gian trạng thái ( về thuật toán Simulated Annealing có thể xem lại Simulated Annealing ), mình...
Tìm kiếm trong không gian trạng thái và thuật toán Simulated Annealing
Trong bài này, mình sẽ giới thiệu về một giải thuật tìm kiếm cục bộ, thuật toán Simulated Annealing. Để đơn giản, mình sẽ giới thiệu...
[ML – 20] Convolution Neural Network – Part 3
1. Convolution Layer: Trong bài trước ta đã nói về convolution (tích chập), nhưng các bạn cũng thấy rằng những nội dung trong bài viết...
[ML – 19] Convolution Neural Network – Part 2
Chào các bạn, hôm nay chúng ta tiếp tục tìm hiểu về mạng neural tích chập (CNN). Trong bài viết trước, ta đã được biết...
[ML – 18] Convolution Neural Network – Part 1
Chào các bạn, rất vui được gặp lại các bạn trong bài viết tiếp theo trong loạt bài về Machine Learning. Vì bản thân tôi...
[ML – 17] Neural Net Regularization with Drop-Out
Chào các bạn, rất vui được gặp lại các bạn trong bài viết này. Hôm nay chúng ta sẽ tìm hiểu về một kĩ thuật...
[ML – 16] Rectifier Linear function and Vanishing Gradient Problem
Chào các bạn, trong bài viết trước ta đã đề cập tới một hàm activation mới Rectifier Linear, trong mạng Neural nó được kí hiệu...
[ML – 15] From Sigmoid function to Rectifier Linear function
Chào các bạn, hôm nay chúng ta tiếp tục loạt bài về ML, từ đầu tới giờ ta đã đề cập tới một số loại...
Khám phá bộ óc đằng sau Google Brain – Andrew Ng: Cuộc đời, sự sáng tạo và cả những thất bại
Nói về ngành khoa học máy tính, khó có thể phủ nhận rằng Carnegie Mellon, MIT, UC Berkeley, và Stanford thuộc top các trường có...
[ML – 14] Machine Learning long term and a Learning path
Như đã nói trong bài viết trước, với lượng kiến thức về toán học hạn hẹp ta đã có thể hiểu được các mô hình...