Tiếp tục chuỗi từ new trong giờ Anh, bây giờ Studytienganh.vn sẽ tiếp tục đem về cho chúng ta thêm 1 các động từ mới đó là cụm “ drop out ”. Ở nội dung bài viết này, chúng mình sẽ cung ứng cho các bạn thêm những kiến thức và kỹ năng mới về “ drop out” và hỗ trợ thêm cho chúng ta một số cụm động từ đi kèm với “ drop” nhé! Hãy kéo xuống bên dưới và tìm hiểu thêm những kiến thức mới mẻ và lạ mắt mà bản thân sẽ cung ứng cho chúng ta dưới phía trên nhé! 

 

Bài viết này bao gồm 3 phần chính:

Phần 1: cụm “ drop out” có nghĩa là gì? lấy một ví dụ minh họa của “ drop out”Phần 2: “ drop out” và các từ đồng nghĩa tương quan với “ drop out”Phần 3: các cụm rượu cồn từ không giống của “ drop”

 

Hãy mang lại với phần trước tiên ngay dưới đây nhé!

 

1. Trong tiếng Việt “ Drop out” có nghĩa là gì? lấy ví dụ như minh họa của “ drop out” 

“ Drop out” là một cụm rượu cồn từ của “ drop”.

Bạn đang xem: Drop out of là gì

Theo phiên âm chuẩn IPA, nó được phân phát âm là /drɑp aʊt//.

Với phiên âm quốc tế chuẩn chỉnh IPA trên , các bạn cũng có thể nhìn và luyện tập đọc theo để sở hữu phát âm đúng “tây” nhất. Hình như các bạn cũng có thể sử dụng những trang từ điển uy tín để rất có thể nghe được vạc âm bản ngữ để sở hữu phát âm đúng nhất nhé!

 

“Drop out” bên dưới dạng nhiều động từ, nó có nghĩa là xong đi học tập trước khi xong khóa học hay còn hiểu bí quyết khác là quăng quật học thân chừng.

 

( Hình hình ảnh minh họa về ý nghĩa sâu sắc của “ Drop out”)

Ví dụ: 

She dropped out of school when she was 14.Con bé bỏng ấy bỏ học năm 14 tuổi. He dropped out of college & went straight into a good job.Thằng nhỏ nhắn ấy đã quăng quật học đh giữa chừng và nhận một các bước tốt. Jame dropped out of college after only a few weeks.Jame đã vứt học đại học chỉ sau vài tuần.

 

“ Drop in” còn có nghĩa là không làm điều gì đó, điều mà bạn sẽ làm hoặc chấm dứt làm điều nào đấy trước khi bạn ngừng hoàn toàn, ngừng tham gia một chuyển động hoặc chấm dứt làm member của một nhóm

Ví dụ:

Three members of the team had to drop out at the last minutes. Ba thành viên của nhóm đã buộc phải rời khỏi team vào mọi phút cuối cùng.   He dropped out of the race after five laps.Anh ta đã vứt cuộc đua sau hai vòng đua.

 

 

2. “ Drop out ” và 1 số ít cụm tự tương đương

 

( Hình hình ảnh minh họa “ Drop out”)

 

Với ý nghĩa sâu sắc là xong xuôi đi học trước khi chấm dứt khóa học. Với nghĩa đó còn tồn tại một số từ đồng nghĩa tương quan với nó kia là: 

to give up one's studies; to drop out of school/university; to leave school. 

Đây là những nhiều động từ đồng nghĩa với “ Drop out”. Các bạn có thể ghi chú để sử dụng thay mang lại “ drop out’’ nhé!

 

3. Những cụm hễ từ thường xuyên đi với “ Drop”

 

( các động tự với “ Drop”)

 

Drop in on bao gồm nghĩa là: Đến thăm thân mật và gần gũi một fan hoặc một địa điểm

Ví dụ:

Sorry I'm late - I dropped into the pub on the way.Xin lỗi vày tôi mang lại muộn - tôi đã ghé vào tiệm rượu bên trên đường.

 

Drop dead! tất cả nghĩa là: Đừng hành hạ và quấy rầy tôi nữa!

Ví dụ:

She is very sad now. Don’t drop dead!Giờ cô ấy đang khôn xiết buồn! Đừng hành hạ và quấy rầy tôi nữa!

 

Don’t drop that or it’ll break! bao gồm nghĩa là: Đừng tấn công rơi kẻo vỡ!

A drop in the ocean: (nghĩa bóng) giọt nước trong biển cả

Ví dụ:

Her letter of protest was just a drop in the ocean.Bức thư phản đối của cô ý ấy chỉ là 1 trong những giọt nước vào đại dương.

 

A drop in the bucket bao gồm nghĩa là: hạt mèo trong sa mạc
A drop of ten meters tất cả nghĩa là: quãng rơi 10 mét
A drop in one’s voice bao gồm nghĩa là: sự hạn giọng
At the drop of a hat có nghĩa là : tức thì lập tức, ngay tức khắc
Drop in tức là : xịt thăm ai đó
Fall in drop có nghĩa là : rơi nhỏ dại giọt
Drop around tất cả nghĩa là: Thăm ai đó, hay không hứa hẹn trước, Giao, phân phối, phân phát
Drop away tất cả nghĩa là: giảm dần (về số lượng, nhỏ số)Drop back có nghĩa là :Bị vứt lại, tụt lại đằng sau ai Drop behind gồm nghĩa là: Bị vứt lại, tụt lại phía sau ai
Drop off có nghĩa là : Đưa ai, cái gì đến một ở đâu đó và để họ hoặc nó sinh hoạt đó
Drop out có nghĩa là :Bỏ học giữa chừng
Drop over có nghĩa là :Tạt vào thăm, nhân tiện ghé thăm
Drop someone in it là tất cả nghĩa là: Đặt ai vào tình trạng rắc rối, cạnh tranh khăn
Drop through có nghĩa là : Chẳng đi cho đâu, chẳng ra tác dụng gìdrop-leaf table bao gồm nghĩa là: một bộ bàn có thể gập lại những cạnh nhằm bàn vừa với một không gian nhỏ tuổi hơndrop-dead date có nghĩa là: ngày cơ mà việc đặc trưng phải được thực hiện:drop-down menu bao gồm nghĩa là: danh sách các lựa lựa chọn trên màn hình máy tính xách tay bị ẩn cho đến khi bạn chọn nhìn vào.drop/lower your guard có nghĩa là: giới hạn lại cẩn trọng để tránh nguy nan hoặc khó khăn 

 

Trên đấy là tất cả những kỹ năng về “ Drop out”, và ngoài ra có cả những các động từ của “ drop” mà chúng mình đã mang về cho những bạn. Chúc chúng ta có một trong những buổi học tác dụng và hữu ích. Hy vọng rằng bài viết này sẽ đem đến nhiều kỹ năng mới cho chúng ta nhé!

*
Trong bài viết này, bản thân xin phép trình làng về Dropout (Bỏ học) vào mạng Neural, tiếp nối là bản thân sẽ có 1 số đoạn code để thấy Dropout tác động thế như thế nào đến năng suất của mạng Neural.

1. Lý thuyết

1.1. Dropout vào mạng Neural là gì

Theo Wikipedia -Thuật ngữ "Dropout" đề cập đến sự việc bỏ qua các đơn vị (units) ẩn với hiện trong 1 mạng Neural.

Hiểu một cách đơn giản thì Dropout là bài toán bỏ qua những đơn vị (tức là 1 nút mạng) trong quá trình đào tạo 1 cách ngẫu nhiên. Bằng việc bỏ qua này thì đơn vị đó sẽ không được lưu ý trong quy trình forward với backward.Theo đó, p được hotline là phần trăm giữ lại 1 nút mạng trong mỗi giai đoạn huấn luyện, chính vì vậy xác suất nó bị nockout bỏ là (1 - p).

1.2. Vì sao lại buộc phải Dropout

Câu hỏi là: lý do phải tắt một số ít nút mạng theo như đúng nghĩa black trong quy trình huấn luyện ?
Câu trả lời là: Tránh học tủ (Over-fitting)

Nếu 1 lớp fully connected có không ít tham số và chiếm hầu như tham số, các nút mạng trong lớp đó quá nhờ vào lẫn nhau trong quy trình huấn luyện thì vẫn hạn chế sức khỏe của từng nút, dẫn đến việc kết hợp quá mức.

1.3. Các kỹ thuật khác

Nếu bạn có nhu cầu biết Dropout là gì, thì chỉ 2 phần kim chỉ nan phía bên trên là đủ. Ở phần này mình cũng ra mắt 1 số kỹ thuật tất cả cùng chức năng với Dropout.

Trong Machine Learning, bài toán chính quy hóa (regularization) đang làm bớt over-fitting bằng phương pháp thêm 1 khoảng tầm giá trị "phạt" vào hàm loss. Bằng cách thêm 1 quý giá như vậy, mô hình của các bạn sẽ không học quá nhiều sự phụ thuộc giữa những trọng số. Có lẽ rằng nhiều bạn đã biết đến Logistic Regression thì đều nghe biết L1 (Laplacian) và L2 (Gaussian) là 2 nghệ thuật "phạt".

Quá trình training:Đối với từng lớp ẩn, từng example, từng vòng lặp, ta sẽ quăng quật học 1 cách ngẫu nhiên với phần trăm (1 - p) cho từng nút mạng.

Quá trình test:Sử dụng tất cả các kích hoạt, dẫu vậy sẽ giảm đi 1 hệ số phường (để tính cho các kích hoạt bị bỏ học).

*

1.4. Một trong những nhận xét

Dropout sẽ tiến hành học thêm các tính năng trẻ trung và tràn trề sức khỏe hữu ích
Nó gần như tăng gấp đôi số epochs cần thiết để hội tụ. Mặc dù nhiên, thời gian cho từng epoch là không nhiều hơn.Ta bao gồm H đơn vị chức năng ẩn, với tỷ lệ bỏ học cho mỗi đơn vị là (1 - p) thì ta hoàn toàn có thể có 2^H mô hình hoàn toàn có thể có. Mà lại trong quá trình test, tất cả các nút mạng yêu cầu được xét đến, với mỗi activation sẽ giảm xuống 1 hệ số p.2. Thực hành

Nói thì hơi nặng nề hiểu, phải mình đã code 2 phần để xem Dropout là như thế nào.

Đặt vấn đề: các bạn đi coi 1 trận đấu bóng đá và các bạn thử dự đoán xem thủ môn giảm vào địa điểm nào thì ước thủ nhà tiến công đầu được quả bóng.

Mình import những thư viện buộc phải thiết

# import packagesimport numpy as npimport matplotlib.pyplot as pltfrom reg_utils import sigmoid, relu, plot_decision_boundary, initialize_parameters, load_2D_dataset, predict_decfrom reg_utils import compute_cost, predict, forward_propagation, backward_propagation, update_parametersimport sklearnimport sklearn.datasetsimport scipy.iofrom test
Cases import *%matplotlib inlineplt.rc
Params<"figure.figsize"> = (7.0, 4.0) # phối default size of plotsplt.rc
Params<"image.interpolation"> = "nearest"plt.rc
Params<"image.cmap"> = "gray"Visualize tài liệu 1 chút

train_X, train_Y, test_X, test_Y = load_2D_dataset()Ta được kết quả

*

Dấu chấm đỏ là mong thủ nhà đã từng đánh đầu, chấm xanh là cầu thủ các bạn đánh đầu. Việc họ là dự kiến xem thủ môn cần sút trơn vào khoanh vùng nào để cầu thủ nhà đánh đầu được. Nhìn có vẻ như như chỉ cần kẻ 1 mặt đường thẳng để phân loại 2 quanh vùng là được.

2.1. Tế bào hình không tồn tại chính quy hóa

def model(X, Y, learning_rate = 0.3, num_iterations = 30000, print_cost = True): """ triển khai mạng cùng với 3 layer: LINEAR->RELU->LINEAR->RELU->LINEAR->SIGMOID. Tham số: X -- dữ liệu đầu vào, kích thước (input size, number of examples) Y -- 1 vector (1 là chấm xanh / 0 là chấm đỏ), form size (output size, number of examples) learning_rate -- tỷ lệ học num_iterations -- Số epochs print_cost -- trường hợp là True, in ra coss cho từng 10000 vòng lặp Returns: parameters -- Tham số học tập được, được dùng để tham gia đoán """ grads = costs = <> # to keep track of the cost m = X.shape<1> # number of examples layers_dims = , 20, 3, 1> # Initialize parameters dictionary. Parameters = initialize_parameters(layers_dims) # Loop (gradient descent) for i in range(0, num_iterations): # Forward propagation: LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SIGMOID. A3, cache = forward_propagation(X, parameters) # Cost function cost = compute_cost(a3, Y) grads = backward_propagation(X, Y, cache) # Update parameters. Parameters = update_parameters(parameters, grads, learning_rate) # Print the loss every 10000 iterations if print_cost & i % 10000 == 0: print("Cost after iteration : ".format(i, cost)) if print_cost & i % 1000 == 0: costs.append(cost) # plot the cost plt.plot(costs) plt.ylabel("cost") plt.xlabel("iterations (x1,000)") plt.title("Learning rate =" + str(learning_rate)) plt.show() return parameters
Hàm dự đoán

print("On the training set:")predictions_train = predict(train_X, train_Y, parameters)print("On the test set:")predictions_test = predict(test_X, test_Y, parameters)Xem kết quả

Cost after iteration 0: 0.6557412523481002Cost after iteration 10000: 0.16329987525724216Cost after iteration 20000: 0.13851642423255986...On the training set:Accuracy: 0.947867298578On the test set:Accuracy: 0.915

*

Có thể thấy độ đúng mực ở tập training là 94% cùng tập demo là 91% (khá cao). Ta vẫn visualize 1 chút

*

Khi không tồn tại chính quy hóa, ta thấy đường phân loại vẽ rất đưa ra tiết, có nghĩa là nó đã over-fitting.

Xem thêm: Văn Mẫu Tưởng Tượng 20 Năm Sau Vào Một Ngày Hè Em Về Thăm Lại Trường Cũ (22 Mẫu)

2.2. Quy mô chính quy hóa cùng với Dropout

2.2.1. Quy trình Forward Propagation

def forward_propagation_with_dropout(X, parameters, keep_prob=0.5): """ xúc tiến 3 layer: LINEAR -> RELU + DROPOUT -> LINEAR -> RELU + DROPOUT -> LINEAR -> SIGMOID. Arguments: X -- dữ liệu đầu vào, kích cỡ (2, number of examples) parameters -- các đối số họ có "W1", "b1", "W2", "b2", "W3", "b3": W1 -- weight matrix of shape (20, 2) b1 -- bias vector of shape (20, 1) W2 -- weight matrix of shape (3, 20) b2 -- bias vector of shape (3, 1) W3 -- weight matrix of shape (1, 3) b3 -- bias vector of shape (1, 1) keep_prob - tỷ lệ giữ lại 1 unit Returns: A3 -- giá trị áp ra output mô hình, size (1,1) cache -- lưu các đối số nhằm tính bỏ phần Backward Propagation """ np.random.seed(1) # retrieve parameters W1 = parameters<"W1"> b1 = parameters<"b1"> W2 = parameters<"W2"> b2 = parameters<"b2"> W3 = parameters<"W3"> b3 = parameters<"b3"> # LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SIGMOID Z1 = np.dot(W1, X) + b1 A1 = relu(Z1) ### START CODE HERE ### (approx. 4 lines) # Steps 1-4 below correspond lớn the Steps 1-4 described above. D1 = np.random.rand(A1.shape<0>, A1.shape<1>) # Step 1: khởi tạo ngẫu nhiên 1 ma trận size bằng kích cỡ A1, cực hiếm (0, 1) D1 = D1

2.2.2. Quy trình Backward Propagation

def backward_propagation_with_dropout(X, Y, cache, keep_prob): những đối số: X -- dữ liệu đầu vào, form size (2, number of examples) Y -- kích thước (output size, number of examples) cache -- lưu cổng output của forward_propagation_with_dropout() keep_prob - như forward Returns: gradients -- Đạo hàm của toàn bộ các weight, activation """ m = X.shape<1> (Z1, D1, A1, W1, b1, Z2, D2, A2, W2, b2, Z3, A3, W3, b3) = cache d
Z3 = A3 - Y d
W3 = 1. / m * np.dot(d
Z3, A2.T) db3 = 1. / m * np.sum(d
Z3, axis=1, keepdims=True) d
A2 = np.dot(W3.T, d
Z3) ### START CODE HERE ### (≈ 2 lines of code) d
A2 = d
A2 * D2 # Step 1: Áp dụng D2 để tắt các unit khớp ứng với forward d
A2 = d
A2 / keep_prob # Step 2: ưu đãi giảm giá trị 1 thông số keep_prob ### over CODE HERE ### d
Z2 = np.multiply(d
A2, np.int64(A2 > 0)) d
W2 = 1. / m * np.dot(d
Z2, A1.T) db2 = 1. / m * np.sum(d
Z2, axis=1, keepdims=True) d
A1 = np.dot(W2.T, d
Z2) ### START CODE HERE ### (≈ 2 lines of code) d
A1 = d
A1 * D1 d
A1 = d
A1 / keep_prob ### kết thúc CODE HERE ### d
Z1 = np.multiply(d
A1, np.int64(A1 > 0)) d
W1 = 1. / m * np.dot(d
Z1, X.T) db1 = 1. / m * np.sum(d
Z1, axis=1, keepdims=True) gradients = "d
Z3": d
Z3, "d
W3": d
W3, "db3": db3,"d
A2": d
A2, "d
Z2": d
Z2, "d
W2": d
W2, "db2": db2, "d
A1": d
A1, "d
Z1": d
Z1, "d
W1": d
W1, "db1": db1 return gradients
Sau khi tất cả Forward cùng Backward, ta cầm cố 2 hàm này vào hàm model của phần trước:

parameters = model(train_X, train_Y, keep_prob=0.86, learning_rate=0.3)print("On the train set:")predictions_train = predict(train_X, train_Y, parameters)print("On the chạy thử set:")predictions_test = predict(test_X, test_Y, parameters)Kết quả:

*

Ta thấy, độ chính xác trong tập test đã lên đến mức 95%, tuy nhiên tập training bị giảm.Thực hiện nay visualize:

plt.title("Model with dropout")axes = plt.gca()axes.set_xlim(<-0.75, 0.40>)axes.set_ylim(<-0.75, 0.65>)plot_decision_boundary(lambda x: predict_dec(parameters, x.T), train_X, train_Y)Ta được

*

Ta thấy mặt đường phân chia không thật chi tiết, đề nghị đã tránh được over-fitting.

2.3. Chú ý

Không cần sử dụng Dropout cho quy trình testÁp dụng Dropout cho tất cả quá trình Forward và Backward
Giá trị kích hoạt phải giảm xuống 1 thông số keep_prob, tính cả cho hầu hết nút vứt học.Tham khảo

Medium