-
-
Notifications
You must be signed in to change notification settings - Fork 97
/
relu.py
42 lines (29 loc) · 841 Bytes
/
relu.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
"""
Activation Function ReLU
ReLU (Rectified Linear Unit) merupakan salah satu fungsi aktivasi
yang biasa digunakan pada projek Machine Learning dan Deep Learning
khususnya yang menggunakan Artificial Neural Network.
Cara kerja ReLU sederhana, fungsi akan mengembalikan nilai 0 jika
nilai input kurang dari 0. Jika fungsi diberi input nilai
lebih dari 0 maka nilai yang dikembalikan adalah nilai input itu.
>>> relu(1.0)
1.0
>>> relu(0.0)
0.0
"""
def relu(x: float):
if x > 0.0:
return x
else:
return 0.0
if __name__ == "__main__":
import doctest
doctest.testmod()
# Nilai input lebih dari 0
print(relu(30.0))
# Nilai input kurang dari 0
print(relu(-30.0))
# Nilai input sama dengan 0
print(relu(0.0))
# Nilai banyak sekali
print(relu(193279812837917298371927.0))