ν•˜λ£¨κ³΅λΆ€

제 22μž₯πŸ“•ML_μ„ ν˜•νšŒκ·€(Linear Regression)πŸ“•

ν‚΄λ°”λ‹€ 2022. 11. 17. 18:50

πŸ€” μ„ ν˜• νšŒκ·€λž€ 무엇인가?

β–Ά λ…λ¦½λ³€μˆ˜μ™€ μ’…μ†λ³€μˆ˜ 간에 μ§μ„ μ‹μ˜ ν˜•νƒœκ°€ μžˆμŒμ„(μ„ ν˜•κ΄€κ³„λΌκ³  함) κ°€μ •ν•˜μ—¬

졜적의 선을 κ·Έμ–΄ μ˜ˆμΈ‘μ„ ν•˜κΈ° μœ„ν•œ 방법

β–Ά  λ¨Έμ‹ λŸ¬λ‹μ—μ„œλŠ” Loss(손싀) 을 μ΅œμ†Œν™”ν•˜λŠ” 선을 μ°Ύμ•„μ„œ λͺ¨λΈμ„ λ§Œλ“€μ–΄λ‚Έλ‹€

β–Ά  μˆ˜μ‹μ„ λ„μΆœν•˜κΈ° μ‰¬μ›€μœΌλ‘œ 해석이 맀우 직관적인것이 νŠΉμ§•μ΄λ‹€.

μ˜ˆμ‹œ) κ·€λšœλΌλ―ΈλŠ” λ”μšΈλ•Œ 더 많이 μš΄λ‹€.

좜처 : ITμœ„ν‚€


πŸ’Έ Loss(손싀) 쀄여보기

μœ„ κ·Έλž˜ν”„λ₯Ό 보면 μ΅œλŒ€ 4거리 만큼의 Lossκ°€ λ‚˜λŠ”λ° 이λ₯Ό μ΅œμ†Œν™” ν•˜κΈ° μœ„ν•΄ κ²½μ‚¬ν•˜κ°•λ²•μ„ μ‚¬μš©ν•˜λŠ”λ°

μ΄λŸ¬ν•œ μˆ˜μ‹μ„ MSE(Mean Square Error) "평균 제곱 였차" 라고 ν•œλ‹€ 또 더 μ •λ°€ν•œ 값을 뽑기 μœ„ν•΄μ„œ

MSE 전체에 루트λ₯Ό μ”Œμš΄ RMSE(λ²‘ν„°μ˜ 거리λ₯Ό κ΅¬ν•˜λŠ” κ°œλ…)λ₯Ό μ‚¬μš©ν•˜κΈ°λ„ ν•œλ‹€.

λ³΄νŽΈμ μœΌλ‘œλŠ” κ°„νŽΈν•œ MSEλ₯Ό μ‚¬μš©ν•œλ‹€.

 

πŸ’‘ 핡심,μœ μ˜ν•  점

β–Ά object ν˜•νƒœλ‘œ ν‘œν˜„λœ λ²”μ£Όν˜• λ³€μˆ˜λ‘œλŠ” λͺ¨λΈλ§ ν•  수 μ—†λ‹€.

β–Άκ³„μˆ˜μ˜ μ ˆλŒ“κ°’μ΄ 클수둝 영ν–₯이 크닀고 ν•  수 있고, 0에 κ°€κΉŒμšΈμˆ˜λ‘ 영ν–₯λ ₯이 κ±°μ˜μ—†λ‹€.

β–Ά ν•˜μ§€λ§Œ 각 λ³€μˆ˜μ—λ”°λΌ μŠ€μΌ€μΌμ΄ λ‹€λ₯΄κΈ° λ•Œλ¬Έμ— μ—¬λŸ¬ 개수λ₯Ό λΉ„κ΅ν• λ•Œ μ ˆλŒ“κ°’μ΄ 더 크닀고

영ν–₯이 더 크닀고 λ³΄κΈ°μ—λŠ” μ˜€μ°¨κ°€ λ§Žμ„μˆ˜ μžˆλ‹€.

 

 

πŸ’ͺμž₯점, πŸ©Έλ‹¨μ 

μž₯점

β–Ά λͺ¨λΈμ΄ κ°„λ‹¨ν•˜λ‹€ => 해석이 쉬움

β–Ά μ†Œμš”μ‹œκ°„μ΄ μ§§λ‹€

 

단점

β–Ά μ΅œμ‹ μ˜ μ•Œκ³ λ¦¬μ¦˜κ³Ό λΉ„κ΅ν–ˆμ„λ•ŒλŠ” 

정확도가 λ–¨μ–΄μ§„λ‹€.

β–Ά λ…λ¦½λ³€μˆ˜μ™€ 예츑 λ³€μˆ˜μ˜ μ„ ν˜•κ΄€κ³„κ°€ μžˆμŒμ„ μ „μ œλ‘œ

ν•œλ‹€λŠ” ν•œκ³„κ°€ μžˆλ‹€.