Skip to content

ywkim92/Datascience-Interview-Questions

ย 
ย 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

ย 
ย 
ย 
ย 
ย 

Repository files navigation

Datascience-Interview-Questions

Contents

ํ†ต๊ณ„ ๋ฐ ์ˆ˜ํ•™

  • ๊ณ ์œ ๊ฐ’(eigen value)์™€ ๊ณ ์œ ๋ฒกํ„ฐ(eigen vector)์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”. ๊ทธ๋ฆฌ๊ณ  ์™œ ์ค‘์š”ํ• ๊นŒ์š”?
    • ์„ ํ˜• ๋ณ€ํ™˜ ์ „๊ณผ ํ›„์˜ ๋ฒกํ„ฐ๊ฐ€ ์„œ๋กœ ํ‰ํ–‰ํ•˜๋ฉด, ๊ทธ ๋ฒกํ„ฐ๋Š” ์„ ํ˜• ๊ณ ์œ ๋ฒกํ„ฐ์ด๋‹ค. ๊ณ ์œ ๋ฒกํ„ฐ๋ฅผ ์„ ํ˜• ๋ณ€ํ™˜์˜ ์ถ•(axes)๋กœ ์ƒ๊ฐํ•  ์ˆ˜ ์žˆ๋‹ค.
  • ์ƒ˜ํ”Œ๋ง(Sampling)๊ณผ ๋ฆฌ์ƒ˜ํ”Œ๋ง(Resampling)์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”. ๋ฆฌ์ƒ˜ํ”Œ๋ง์€ ๋ฌด์Šจ ์žฅ์ ์ด ์žˆ์„๊นŒ์š”?
    • sampling: ๋‹จ์ˆœ ๋ฌด์ž‘์œ„, ๊ณ„ํ†ต, ์ธตํ™”, ๊ตฐ์ง‘ ์ถ”์ถœ ๋“ฑ
    • resampling: bootstrap, cross-validation ๋“ฑ. ์ƒ˜ํ”Œ์˜ ํ†ต๊ณ„๋Ÿ‰์˜ ์ •๋ฐ€๋„๋ฅผ ์ธก์ •ํ•˜๊ฑฐ๋‚˜ ์ƒ˜ํ”Œ์˜ ์ž„์˜์˜ ๋ถ€๋ถ„ ์ง‘ํ•ฉ์„ ์ด์šฉํ•˜์—ฌ ๋ชจ๋ธ์„ ๊ฒ€์ฆํ•จ
  • ํ™•๋ฅ  ๋ชจํ˜•๊ณผ ํ™•๋ฅ  ๋ณ€์ˆ˜๋Š” ๋ฌด์—‡์ผ๊นŒ์š”?
    • ํ™•๋ฅ  ๋ณ€์ˆ˜: ์ •์˜์—ญ์ด ํ‘œ๋ณธ ๊ณต๊ฐ„์ธ ํ•จ์ˆ˜. [ref]
    • ํ™•๋ฅ  ๋ชจํ˜•: ๋ฐ์ดํ„ฐ์˜ ๋ถ„ํฌ๋ฅผ ๊ทผ์‚ฌํ•˜๋Š” ๋ชจํ˜•
  • ๋ˆ„์  ๋ถ„ํฌ ํ•จ์ˆ˜์™€ ํ™•๋ฅ  ๋ฐ€๋„ ํ•จ์ˆ˜๋Š” ๋ฌด์—‡์ผ๊นŒ์š”? ์ˆ˜์‹๊ณผ ํ•จ๊ป˜ ํ‘œํ˜„ํ•ด์ฃผ์„ธ์š”
    • ํ™•๋ฅ  ๋ฐ€๋„ ํ•จ์ˆ˜: ์—ฐ์†ํ™•๋ฅ ๋ถ„ํฌ์—์„œ ํ™•๋ฅ ๋ณ€์ˆ˜๊ฐ€ ํŠน์ •๊ฐ’์ผ ๋•Œ์˜ ์šฐ๋„(likelihood)
      • non-negative function
    • ๋ˆ„์  ๋ถ„ํฌ ํ•จ์ˆ˜
  • ๋ฒ ๋ฅด๋ˆ„์ด ๋ถ„ํฌ / ์ดํ•ญ ๋ถ„ํฌ / ์นดํ…Œ๊ณ ๋ฆฌ ๋ถ„ํฌ / ๋‹คํ•ญ ๋ถ„ํฌ / ๊ฐ€์šฐ์‹œ์•ˆ ์ •๊ทœ ๋ถ„ํฌ / t ๋ถ„ํฌ / ์นด์ด์ œ๊ณฑ ๋ถ„ํฌ / F ๋ถ„ํฌ / ๋ฒ ํƒ€ ๋ถ„ํฌ / ๊ฐ๋งˆ ๋ถ„ํฌ / ๋””๋ฆฌํด๋ ˆ ๋ถ„ํฌ์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”. ํ˜น์‹œ ์—ฐ๊ด€๋œ ๋ถ„ํฌ๊ฐ€ ์žˆ๋‹ค๋ฉด ์—ฐ๊ด€ ๊ด€๊ณ„๋ฅผ ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
  • ์กฐ๊ฑด๋ถ€ ํ™•๋ฅ ์€ ๋ฌด์—‡์ผ๊นŒ์š”?
  • ๊ณต๋ถ„์‚ฐ๊ณผ ์ƒ๊ด€๊ณ„์ˆ˜๋Š” ๋ฌด์—‡์ผ๊นŒ์š”? ์ˆ˜์‹๊ณผ ํ•จ๊ป˜ ํ‘œํ˜„ํ•ด์ฃผ์„ธ์š”
    • ๊ณต๋ถ„์‚ฐ:
    • ์ƒ๊ด€๊ณ„์ˆ˜:
  • ์‹ ๋ขฐ ๊ตฌ๊ฐ„์˜ ์ •์˜๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
    • L: lower bound, U: upper bound
  • p-value๋ฅผ ๊ณ ๊ฐ์—๊ฒŒ๋Š” ๋ญ๋ผ๊ณ  ์„ค๋ช…ํ•˜๋Š”๊ฒŒ ์ดํ•ดํ•˜๊ธฐ ํŽธํ• ๊นŒ์š”?
    • ๋จผ์ € ์–ด๋– ํ•œ ๋ช…์ œ์˜ ์‚ฌ์‹ค ์—ฌ๋ถ€๋ฅผ ํŒ๋‹จํ•˜๊ธฐ ์œ„ํ•ด ๊ฐ€์„ค(๊ท€๋ฌด๊ฐ€์„ค๊ณผ ๋Œ€๋ฆฝ๊ฐ€์„ค)์„ ์„ค์ •
    • ํ†ต๊ณ„์  ๊ฒ€์ • ์ „์— ๋ฏธ๋ฆฌ ์œ ์˜์ˆ˜์ค€์„ ์„ค์ •ํ•จ. ํ†ต์ƒ์ ์œผ๋กœ 5%
    • ํ†ต๊ณ„์  ๊ฒ€์ •์œผ๋กœ ํ†ต๊ณ„๋Ÿ‰๊ณผ ์œ ์˜ํ™•๋ฅ ์„ ์–ป์Œ
    • ์œ ์˜ํ™•๋ฅ ์ด ์œ ์˜์ˆ˜์ค€๋ณด๋‹ค ์ž‘์œผ๋ฉด ๊ท€๋ฌด๊ฐ€์„ค์„ ๊ธฐ๊ฐํ•˜๊ณ  ๋Œ€๋ฆฝ๊ฐ€์„ค์„ ์ฑ„ํƒํ•จ
  • p-value๋Š” ์š”์ฆ˜ ์‹œ๋Œ€์—๋„ ์—ฌ์ „ํžˆ ์œ ํšจํ• ๊นŒ์š”? ์–ธ์ œ p-value๊ฐ€ ์‹ค์ œ๋ฅผ ํ˜ธ๋„ํ•˜๋Š” ๊ฒฝํ–ฅ์ด ์žˆ์„๊นŒ์š”?
    • [ref]
    • [ref1]
    • p-value๊ฐ€ ์œ ์˜์ˆ˜์ค€๋ณด๋‹ค ์ž‘์œผ๋ฉด ๊ท€๋ฌด๊ฐ€์„ค์„ ๊ธฐ๊ฐํ•œ๋‹ค. ์œ ์˜์ˆ˜์ค€์€ ์ผ์ข…์˜ threshold๋กœ๋งŒ ๊ธฐ๋Šฅํ•˜๋ฉฐ p-value์˜ ๋Œ€์†Œ์— ๋Œ€ํ•ด ํ•ด์„์˜ ์—ฌ์ง€๋Š” ์—†๋‹ค
    • ์˜ˆ๋ฅผ ๋“ค์–ด ์œ ์˜์ˆ˜์ค€ 0.05์—์„œ p-value๊ฐ€ 0.01์ด๋“  0.001์ด๋“  ๊ท€๋ฌด๊ฐ€์„ค์„ ๊ธฐ๊ฐํ•  ๋ฟ, ์–‘์ž ์ค‘ ์–ด๋Š ๊ฒƒ์ด ๋” ํ™•์‹คํ•˜๊ฒŒ ํ˜น์€ ๊ฐ•ํ•˜๊ฒŒ ๊ธฐ๊ฐํ•œ๋‹ค๊ณ  ๋งํ•  ์ˆœ ์—†๋‹ค
    • ๋ฐ˜๋Œ€๋กœ ์œ ์˜์ˆ˜์ค€ 0.05์—์„œ p-value๊ฐ€ 0.7์ด๋“  0.051์ด๋“  ๋˜‘๊ฐ™์ด ๊ท€๋ฌด๊ฐ€์„ค์„ ๊ธฐ๊ฐํ•  ์ˆ˜ ์—†๋‹ค. ์•„๋ฌด๋ฆฌ ์œ ์˜์ˆ˜์ค€์— ๊ฐ€๊น๋”๋ผ๋„ ์œ ์˜์ˆ˜์ค€์„ ์ดˆ๊ณผํ•˜๋Š” ์ˆœ๊ฐ„ ํ˜‘์ƒ์˜ ์—ฌ์ง€๋Š” ์—†๋‹ค
    • ๊ทธ๋Ÿฌ๋‚˜ ์‹ฌ์ง€์–ด ํ•™์ˆ ์ ์ธ ๊ธ€์—์„œ์กฐ์ฐจ ์ด๋ฅผ ๊ต๋ฌ˜ํžˆ ํ˜ธ๋„ํ•˜๋Š” ํ‘œํ˜„์„ ์‚ฌ์šฉํ•œ๋‹ค
  • A/B Test ๋“ฑ ํ˜„์ƒ ๋ถ„์„ ๋ฐ ์‹คํ—˜ ์„ค๊ณ„ ์ƒ ํ†ต๊ณ„์ ์œผ๋กœ ์œ ์˜๋ฏธํ•จ์˜ ์—ฌ๋ถ€๋ฅผ ๊ฒฐ์ •ํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฉ๋ฒ•์—๋Š” ์–ด๋–ค ๊ฒƒ์ด ์žˆ์„๊นŒ์š”?
  • R square์˜ ์˜๋ฏธ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ๋ฐ์ดํ„ฐ์…‹ ์ข…์†๋ณ€์ˆ˜(label)์˜ ๋ถ„์‚ฐ ๊ฐ€์šด๋ฐ ๋ชจ๋ธ ์—ฐ์‚ฐ์— ๋”ฐ๋ผ ๋…๋ฆฝ๋ณ€์ˆ˜(features)๋กœ ์„ค๋ช…๋˜๋Š” ๋ถ„์‚ฐ์˜ ๋น„์œจ
  • ํ‰๊ท (mean)๊ณผ ์ค‘์•™๊ฐ’(median)์ค‘์— ์–ด๋–ค ์ผ€์ด์Šค์—์„œ ๋ญ๋ฅผ ์จ์•ผํ• ๊นŒ์š”?
    • ๋ฐ์ดํ„ฐ์— ์ด์ƒ์น˜๊ฐ€ ์žˆ์„ ๋•Œ, ๊ทธ ์ด์ƒ์น˜์— ์˜ํ•ด ํ‰๊ท ์ด ์™œ๊ณก๋  ์ˆ˜ ์žˆ์Œ. ์ด๋ฅผ ํ”ผํ•˜๋ฉด์„œ ํ•œ ์ƒ˜ํ”Œ์˜ ๋Œ€ํ‘ฏ๊ฐ’์„ ์–ป๊ณ ์ž ํ•œ๋‹ค๋ฉด, ์ค‘์•™๊ฐ’์„ ์‚ฌ์šฉํ•˜๋Š” ๊ฒŒ ๋ฐ”๋žŒ์งํ•จ
  • ์ค‘์‹ฌ๊ทนํ•œ์ •๋ฆฌ๋Š” ์™œ ์œ ์šฉํ•œ๊ฑธ๊นŒ์š”?
    • ํ‘œ๋ณธ์˜ ํฌ๊ธฐ๊ฐ€ ์ปค์งˆ์ˆ˜๋ก ํ‘œ๋ณธ์˜ ๋ถ„ํฌ๋Š” ์ •๊ทœ๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฆ„. ๋”ฐ๋ผ์„œ ํ‘œ๋ณธ์ด ์ถฉ๋ถ„ํžˆ ํฌ๋‹ค๋ฉด ๊ทธ ๋ถ„ํฌ๋ฅผ ์ •๊ทœ๋ถ„ํฌ๋กœ ๊ฐ„์ฃผํ•˜๊ณ  ๋ถ„์„์„ ์ง„ํ–‰ํ•  ์ˆ˜ ์žˆ์Œ
  • ์—”ํŠธ๋กœํ”ผ(entropy)์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”. ๊ฐ€๋Šฅํ•˜๋ฉด Information Gain๋„์š”.
    • ์—”ํŠธ๋กœํ”ผ๊ฐ€ ํด์ˆ˜๋ก ๋ถ„๊ธฐ๋œ ๋‘ ๊ทธ๋ฃน์˜ ๋ถ„ํฌ๊ฐ€ ์œ ์‚ฌํ•จ. ์ฆ‰ ๋ถ„๊ธฐ ๊ธฐ์ค€์ด ํšจ๊ณผ์ ์ด์ง€ ๋ชปํ•˜๊ณ  ๋ถˆ์ˆœ๋„(impurity)๊ฐ€ ํฌ๋‹ค๊ณ  ํ•  ์ˆ˜ ์žˆ์Œ
    • Information gain์€ ํ•œ ๋ถ„๊ธฐ ์Šคํ…์—์„œ ๋ถˆ์ˆœ๋„์˜ ๊ฐ์†Œ๋Ÿ‰
    • tree-based ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ ๋ถˆ์ˆœ๋„๊ฐ€ ๊ฐ€์žฅ ํฌ๊ฒŒ ๊ฐ์†Œํ•˜๋Š” ์ฆ‰ Information gain์ด ๊ฐ€์žฅ ํฐ ๋ถ„๊ธฐ ๊ธฐ์ค€์„ ์ฐพ์•„ ์ด๋ฅผ ๊ทผ๊ฑฐ๋กœ ๋ถ€๋ชจ ๋…ธ๋“œ๋ฅผ ์ž์‹ ๋…ธ๋“œ๋กœ ๋‚˜๋ˆ”
  • ์š”์ฆ˜๊ฐ™์€ ๋น…๋ฐ์ดํ„ฐ(?)์‹œ๋Œ€์—๋Š” ์ •๊ทœ์„ฑ ํ…Œ์ŠคํŠธ๊ฐ€ ์˜๋ฏธ ์—†๋‹ค๋Š” ์ฃผ์žฅ์ด ์žˆ์Šต๋‹ˆ๋‹ค. ๋งž์„๊นŒ์š”?
    • ํ†ต๊ณ„์  ๋ชจ๋ธ๋ง์˜ ๋ชฉ์ : ๋ถ„ํฌ๋ฅผ ๊ฐ€์ •ํ•˜์—ฌ ์ ์€ ์ˆ˜์˜ ์ƒ˜ํ”Œ๋กœ ๋ชจ์ˆ˜๋ฅผ ์ถ”์ •
    • ๋น…๋ฐ์ดํ„ฐ, ๋จธ์‹ ๋Ÿฌ๋‹: estimation < prediction. ํ†ต๊ณ„์  ์œ ์˜์„ฑ๋ณด๋‹ค๋„ ๋ชจ๋ธ์˜ ์„ฑ๋Šฅ(์ •ํ™•๋„, ์˜ค์ฐจ ๋“ฑ)์— ์ฃผ๋ชฉ. ๋†’์€ ์„ฑ๋Šฅ์˜ ๋ชจ๋ธ๋กœ ๋น„์ฆˆ๋‹ˆ์Šค์  ๋ชฉํ‘œ๋ฅผ ๋‹ฌ์„ฑํ•˜๊ณ ์ž ํ•จ
    • ๋น…๋ฐ์ดํ„ฐ์— ๋Œ€ํ•ด์„œ๋Š” ์ •๊ทœ์„ฑ ํ…Œ์ŠคํŠธ๊ฐ€ ํŒ”์š” ์—†์„ ์ˆ˜ ์žˆ์Œ. ํ•˜์ง€๋งŒ ๋ถ„์„ํ•˜๋ ค๋Š” ๋ฐ์ดํ„ฐ๊ฐ€ ๋น…๋ฐ์ดํ„ฐ์ธ์ง€ ๋จผ์ € ์‚ดํŽด์•ผ ํ•จ
    • ์ถฉ๋ถ„ํžˆ ํฐ์ง€, ๋ชจ์ง‘๋‹จ์„ ๋Œ€ํ‘œํ•˜๋Š”์ง€, ์˜ค์—ผ์€ ์—†๋Š”์ง€ ๋“ฑ
    • garbage in, garbage out
  • ์–ด๋–จ ๋•Œ ๋ชจ์ˆ˜์  ๋ฐฉ๋ฒ•๋ก ์„ ์“ธ ์ˆ˜ ์žˆ๊ณ , ์–ด๋–จ ๋•Œ ๋น„๋ชจ์ˆ˜์  ๋ฐฉ๋ฒ•๋ก ์„ ์“ธ ์ˆ˜ ์žˆ๋‚˜์š”?
    • ๋น„๋ชจ์ˆ˜์  ๋ฐฉ๋ฒ•๋ก : ์ƒ˜ํ”Œ ํฌ๊ธฐ๊ฐ€ ์ž‘๊ณ  ์ƒ˜ํ”Œ์˜ ๋ถ„ํฌ๋ฅผ ๊ฐ€์ •ํ•˜๊ธฐ ์–ด๋ ค์šธ ๋•Œ
    • ๋นˆ๋„, ๋ถ€ํ˜ธ, ์ˆœ์œ„ ๋“ฑ์„ ์‚ฌ์šฉํ•˜๋ฏ€๋กœ ์ด์ƒ์น˜์— ์˜ํ–ฅ์„ ๋œ ๋ฐ›์Œ
  • โ€œlikelihoodโ€์™€ โ€œprobabilityโ€์˜ ์ฐจ์ด๋Š” ๋ฌด์—‡์ผ๊นŒ์š”?
    • ์—ฐ์† ํ™•๋ฅ  ๋ณ€์ˆ˜์—์„œ
    • probability: pdf์˜ ์ •์ ๋ถ„ ๊ฐ’
    • likelihood: pdf์˜ ํ•จ์ˆซ๊ฐ’
  • ํ†ต๊ณ„์—์„œ ์‚ฌ์šฉ๋˜๋Š” bootstrap์˜ ์˜๋ฏธ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”.
    • ๋ณต์› ์ถ”์ถœ์„ ๋งค์šฐ ๋งŽ์ด ์‹œํ–‰ํ•˜์˜€์„ ๋•Œ ์–ด๋–ค ์ƒ˜ํ”Œ์ด ํ•œ ๋ฒˆ๋„ ์ถ”์ถœ๋˜์ง€ ์•Š์„ ํ™•๋ฅ ์€ ์•ฝ 36.79%๋กœ ์ˆ˜๋ ดํ•จ
    • ๋”ฐ๋ผ์„œ ์–ด๋–ค ํ‘œ๋ณธ(ํ‘œ๋ณธ์ง‘๋‹จ)์„ ๋‘ ๊ทธ๋ฃน์œผ๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ์Œ. ๋”๋ถˆ์–ด ๋งค ์‹œํ–‰๋งˆ๋‹ค ๊ทธ๋ฃน์˜ ๊ตฌ์„ฑ์ด ๋‹ฌ๋ผ์ง
    • ์ด๋ฅผ ํ•™์Šต์— ์ ์šฉํ•˜์—ฌ ํ•œ์ •๋œ ์ƒ˜ํ”Œ๋กœ ๋‹ค์ˆ˜์˜ ๋ถ„๋ฅ˜๊ธฐ๋ฅผ ์ƒ์„ฑํ•˜๋Š” ๊ธฐ๋ฒ•์ด bagging
  • ๋ชจ์ˆ˜(population)๊ฐ€ ๋งค์šฐ ์ ์€ (์ˆ˜์‹ญ๊ฐœ ์ดํ•˜) ์ผ€์ด์Šค์˜ ๊ฒฝ์šฐ ์–ด๋–ค ๋ฐฉ์‹์œผ๋กœ ์˜ˆ์ธก ๋ชจ๋ธ์„ ์ˆ˜๋ฆฝํ•  ์ˆ˜ ์žˆ์„๊นŒ์š”?
    • overfitting ๋ฐฉ์ง€: ๋‹จ์ˆœํ•œ ๋ชจ๋ธ ์ฑ„ํƒ ๋ฐ ๋ณด์ˆ˜์ ์ธ ์ ์šฉ, regularization ์‚ฌ์šฉ
    • outliers ๊ด€๋ฆฌ
    • over-sampling
    • voting: ์—ฌ๋Ÿฌ ๋‹จ์ผ ๋ชจ๋ธ์˜ ๊ฒฐ๊ณผ๋ฅผ voting
  • ๋ฒ ์ด์ง€์•ˆ๊ณผ ํ”„๋ฆฌํ€€ํ‹ฐ์ŠคํŠธ๊ฐ„์˜ ์ž…์žฅ์ฐจ์ด๋ฅผ ์„ค๋ช…ํ•ด์ฃผ์‹ค ์ˆ˜ ์žˆ๋‚˜์š”?
    • [ref]
    • frequentist: ํ‘œ๋ณธ์ด ๋ชจ์ง‘๋‹จ๊ณผ ๋™์งˆํ•  ๊ฒƒ์ด๋ผ๋Š” ๊ฐ€์ •. ๋”ฐ๋ผ์„œ (ํ™•๋ฅ ํ™”๋ฅผ ํ†ตํ•ด ์ถ”์ถœ๋œ) ํ‘œ๋ณธ์˜ ํฌ๊ธฐ๊ฐ€ ํด์ˆ˜๋ก ๋ชจ์ง‘๋‹จ์„ ์ž˜ ํ‘œํ˜„ํ•จ. ์ƒˆ๋กœ์šด ๊ด€์ธก๊ฐ’์ด ํ‘œ๋ณธ์„ ํ†ตํ•ด ์ถ”์ •ํ•œ ๋ถ„ํฌ์— ์–ผ๋งˆ๋‚˜ ์ž˜ ๋ถ€ํ•ฉํ•˜๋Š”์ง€ ํ™•์ธ
    • bayesian: ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ๊ฐ€์ •ํ•˜๊ณ  ์ƒˆ๋กœ์šด ๊ด€์ธก๊ฐ’์„ ๋ฐ˜์˜ํ•ด ๋ฒ ์ด์ฆˆ ์ •๋ฆฌ๋กœ ์‚ฌํ›„๋ถ„ํฌ๋ฅผ ๊ตฌํ•˜๋ฉฐ ๋ชจ์ˆ˜๋ฅผ ์ถ”์ •
  • ๊ฒ€์ •๋ ฅ(statistical power)์€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • ๊ท€๋ฌด๊ฐ€์„ค์ด ๊ฑฐ์ง“์ผ ๋•Œ ๋Œ€๋ฆฝ๊ฐ€์„ค์„ ์ฑ„ํƒํ•  ํ™•๋ฅ 
  • missing value๊ฐ€ ์žˆ์„ ๊ฒฝ์šฐ ์ฑ„์›Œ์•ผ ํ• ๊นŒ์š”? ๊ทธ ์ด์œ ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ์–ด๋–ค ๊ฐ’์œผ๋กœ๋“  ์ฑ„์›Œ์•ผ ํ•จ. ๋ณ€์ˆ˜๊ฐ’์ด ํ•˜๋‚˜๋ผ๋„ ๋น„์–ด ์žˆ์œผ๋ฉด ๋ชจ๋ธ์ด ํ•™์Šต ๋ฐ inferenceํ•  ์ˆ˜ ์—†๋‹ค
  • ์•„์›ƒ๋ผ์ด์–ด์˜ ํŒ๋‹จํ•˜๋Š” ๊ธฐ์ค€์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ๋ฐ•์Šค ํ”Œ๋กฏ(์‚ฌ๋ถ„์œ„์ˆ˜): max, min์„ ๋ฒ—์–ด๋‚˜๋ฉด ์•„์›ƒ๋ผ์ด์–ด๋กœ ํŒ๋‹จ
    • ์‹œ๊ฐํ™”, ๋งˆํ• ๋ผ๋…ธ๋น„์Šค ๊ฑฐ๋ฆฌ
    • ESD(3-sigma), ๊ธฐํ•˜ํ‰๊ท  ยฑ (2.5-sigma), Z-score
  • ์ฝœ์„ผํ„ฐ ํ†ตํ™” ์ง€์† ์‹œ๊ฐ„์— ๋Œ€ํ•œ ๋ฐ์ดํ„ฐ๊ฐ€ ์กด์žฌํ•ฉ๋‹ˆ๋‹ค. ์ด ๋ฐ์ดํ„ฐ๋ฅผ ์ฝ”๋“œํ™”ํ•˜๊ณ  ๋ถ„์„ํ•˜๋Š” ๋ฐฉ๋ฒ•์— ๋Œ€ํ•œ ๊ณ„ํš์„ ์„ธ์›Œ์ฃผ์„ธ์š”. ์ด ๊ธฐ๊ฐ„์˜ ๋ถ„ํฌ๊ฐ€ ์–ด๋–ป๊ฒŒ ๋ณด์ผ์ง€์— ๋Œ€ํ•œ ์‹œ๋‚˜๋ฆฌ์˜ค๋ฅผ ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
  • ์ถœ์žฅ์„ ์œ„ํ•ด ๋น„ํ–‰๊ธฐ๋ฅผ ํƒ€๋ ค๊ณ  ํ•ฉ๋‹ˆ๋‹ค. ๋‹น์‹ ์€ ์šฐ์‚ฐ์„ ๊ฐ€์ ธ๊ฐ€์•ผ ํ•˜๋Š”์ง€ ์•Œ๊ณ  ์‹ถ์–ด ์ถœ์žฅ์ง€์— ์‚ฌ๋Š” ์นœ๊ตฌ 3๋ช…์—๊ฒŒ ๋ฌด์ž‘์œ„๋กœ ์ „ํ™”๋ฅผ ํ•˜๊ณ  ๋น„๊ฐ€ ์˜ค๋Š” ๊ฒฝ์šฐ๋ฅผ ๋…๋ฆฝ์ ์œผ๋กœ ์งˆ๋ฌธํ•ด์ฃผ์„ธ์š”. ๊ฐ ์นœ๊ตฌ๋Š” 2/3๋กœ ์ง„์‹ค์„ ๋งํ•˜๊ณ  1/3์œผ๋กœ ๊ฑฐ์ง“์„ ๋งํ•ฉ๋‹ˆ๋‹ค. 3๋ช…์˜ ์นœ๊ตฌ๊ฐ€ ๋ชจ๋‘ "๊ทธ๋ ‡์Šต๋‹ˆ๋‹ค. ๋น„๊ฐ€ ๋‚ด๋ฆฌ๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค"๋ผ๊ณ  ๋งํ–ˆ์Šต๋‹ˆ๋‹ค. ์‹ค์ œ๋กœ ๋น„๊ฐ€ ๋‚ด๋ฆด ํ™•๋ฅ ์€ ์–ผ๋งˆ์ž…๋‹ˆ๊นŒ?
  • ํ•„์š”ํ•œ ํ‘œ๋ณธ์˜ ํฌ๊ธฐ๋ฅผ ์–ด๋–ป๊ฒŒ ๊ณ„์‚ฐํ•ฉ๋‹ˆ๊นŒ?
    • [ref]
    • Z: z-score, p: population proportion, epsilone: margin of error
  • Bias๋ฅผ ํ†ต์ œํ•˜๋Š” ๋ฐฉ๋ฒ•์€ ๋ฌด์—‡์ž…๋‹ˆ๊นŒ?
    • ๋ถˆํŽธ์ถ”์ •๋Ÿ‰์„ ์‚ฌ์šฉ
    • ์ผ๋ฐ˜์ ์œผ๋กœ ๋ถ„์‚ฐ๊ณผ ํŽธ์˜(bias)๋Š” trade-off ๊ด€๊ณ„. ํ†ต๊ณ„ํ•™์—์„œ๋Š” ํŽธ์˜๋ฅผ 0์œผ๋กœ ํ†ต์ œํ•˜๋Š” ๋ถˆํŽธ์ถ”์ •๋Ÿ‰์„ ์‚ฌ์šฉํ•˜๋‚˜ ๋จธ์‹ ๋Ÿฌ๋‹์—์„œ๋Š” ์˜ค์ฐจ๊ฐ€ ์ตœ์†Œํ™”๋˜๋„๋ก ํŽธ์˜์™€ ๋ถ„์‚ฐ์„
  • ๋กœ๊ทธ ํ•จ์ˆ˜๋Š” ์–ด๋–ค ๊ฒฝ์šฐ ์œ ์šฉํ•ฉ๋‹ˆ๊นŒ? ์‚ฌ๋ก€๋ฅผ ๋“ค์–ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
    • ์šฐ๋„ํ•จ์ˆ˜: ๋กœ๊ทธ ์šฐ๋„ํ•จ์ˆ˜๋ฅผ ์‚ฌ์šฉํ•˜๋ฉด ๊ฐ ํ•ญ์˜ ๊ณฑ์…ˆ์„ ๋ง์…ˆ์œผ๋กœ ์ฒ˜๋ฆฌํ•  ์ˆ˜ ์žˆ์Œ
    • ์šฐ์ธก ํŽธํฌ(์˜ค๋ฅธํŽธ ๊ผฌ๋ฆฌ ๋ถ„ํฌ): ๋กœ๊ทธ ํ•จ์ˆ˜๋ฅผ ์ ์šฉํ•˜์—ฌ ๋Œ€์นญํ˜• ๋ถ„ํฌ๋กœ ๋ณ€ํ™˜
    • ์Šค์ผ€์ผ์„ ์ค„์ด๋Š” ๋ฐ ์‚ฌ์šฉ

๋ถ„์„ ์ผ๋ฐ˜

  • ์ข‹์€ feature๋ž€ ๋ฌด์—‡์ธ๊ฐ€์š”. ์ด feature์˜ ์„ฑ๋Šฅ์„ ํŒ๋‹จํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฉ๋ฒ•์—๋Š” ์–ด๋–ค ๊ฒƒ์ด ์žˆ๋‚˜์š”?
    • ํšŒ๊ท€: t-test ๊ฒฐ๊ณผ p-value๊ฐ€ ๋‚ฎ์€ features
    • ๋ถ„๋ฅ˜: feature importance๊ฐ€ ํฐ features
    • coefficients, feature importances๋ฅผ ์‚ฌ์šฉํ•จ
  • "์ƒ๊ด€๊ด€๊ณ„๋Š” ์ธ๊ณผ๊ด€๊ณ„๋ฅผ ์˜๋ฏธํ•˜์ง€ ์•Š๋Š”๋‹ค"๋ผ๋Š” ๋ง์ด ์žˆ์Šต๋‹ˆ๋‹ค. ์„ค๋ช…ํ•ด์ฃผ์‹ค ์ˆ˜ ์žˆ๋‚˜์š”?
    • ์—ฌ๋ฆ„์—๋Š” ์•„์ด์Šคํฌ๋ฆผ์ด ๋งŽ์ด ํŒ”๋ฆฐ๋‹ค
    • ๋”๋ถˆ์–ด ์—ฌ๋ฆ„์—๋Š” ์ต์‚ฌ์‚ฌ๊ณ ๊ฐ€ ๋Š˜์–ด๋‚œ๋‹ค
    • ์—ฌ๋ฆ„ ์ค‘ ํŠน์ • ๊ธฐ๊ฐ„์— ์•„์ด์Šคํฌ๋ฆผ ํŒ๋งค๋Ÿ‰๊ณผ ์ต์‚ฌ์‚ฌ๊ณ  ๊ฑด์ˆ˜๋ฅผ ์กฐ์‚ฌํ•˜๋ฉด ์–‘์˜ ์ƒ๊ด€๊ด€๊ณ„๋ฅผ ๋ณด์ผ ์ˆ˜ ์žˆ๋‹ค
    • ๊ทธ๋Ÿฌ๋‚˜ ์ด๋Š” ์ƒ๊ด€๊ด€๊ณ„์ผ๋ฟ ์ธ๊ณผ๊ด€๊ณ„๋ฅผ ์˜๋ฏธํ•˜์ง€ ์•Š๋Š”๋‹ค. ์•„์ด์Šคํฌ๋ฆผ ํŒ๋งค๊ฐ€ ์ต์‚ฌ์‚ฌ๊ณ ๋ฅผ ์œ ๋ฐœํ•œ๋‹ค๊ณ  ๋งํ•  ์ˆ˜ ์—†๋‹ค
  • A/B ํ…Œ์ŠคํŠธ์˜ ์žฅ์ ๊ณผ ๋‹จ์ , ๊ทธ๋ฆฌ๊ณ  ๋‹จ์ ์˜ ๊ฒฝ์šฐ ์ด๋ฅผ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฉ์•ˆ์—๋Š” ์–ด๋–ค ๊ฒƒ์ด ์žˆ๋‚˜์š”?
  • ๊ฐ ๊ณ ๊ฐ์˜ ์›น ํ–‰๋™์— ๋Œ€ํ•˜์—ฌ ์‹ค์‹œ๊ฐ„์œผ๋กœ ์ƒํ˜ธ์ž‘์šฉ์ด ๊ฐ€๋Šฅํ•˜๋‹ค๊ณ  ํ•  ๋•Œ์—, ์ด์— ์ ์šฉ ๊ฐ€๋Šฅํ•œ ๊ณ ๊ฐ ํ–‰๋™ ๋ฐ ๋ชจ๋ธ์— ๊ด€ํ•œ ์ด๋ก ์„ ์•Œ์•„๋ด…์‹œ๋‹ค.
  • ๊ณ ๊ฐ์ด ์›ํ•˜๋Š” ์˜ˆ์ธก๋ชจํ˜•์„ ๋‘๊ฐ€์ง€ ์ข…๋ฅ˜๋กœ ๋งŒ๋“ค์—ˆ๋‹ค. ํ•˜๋‚˜๋Š” ์˜ˆ์ธก๋ ฅ์ด ๋›ฐ์–ด๋‚˜์ง€๋งŒ ์™œ ๊ทธ๋ ‡๊ฒŒ ์˜ˆ์ธกํ–ˆ๋Š”์ง€๋ฅผ ์„ค๋ช…ํ•˜๊ธฐ ์–ด๋ ค์šด random forest ๋ชจํ˜•์ด๊ณ , ๋˜๋‹ค๋ฅธ ํ•˜๋‚˜๋Š” ์˜ˆ์ธก๋ ฅ์€ ๋‹ค์†Œ ๋–จ์–ด์ง€๋‚˜ ๋ช…ํ™•ํ•˜๊ฒŒ ์™œ ๊ทธ๋Ÿฐ์ง€๋ฅผ ์„ค๋ช…ํ•  ์ˆ˜ ์žˆ๋Š” sequential bayesian ๋ชจํ˜•์ž…๋‹ˆ๋‹ค.๊ณ ๊ฐ์—๊ฒŒ ์–ด๋–ค ๋ชจํ˜•์„ ์ถ”์ฒœํ•˜๊ฒ ์Šต๋‹ˆ๊นŒ?
  • ๊ณ ๊ฐ์ด ๋‚ด์ผ ์–ด๋–ค ์ƒํ’ˆ์„ ๊ตฌ๋งคํ• ์ง€ ์˜ˆ์ธกํ•˜๋Š” ๋ชจํ˜•์„ ๋งŒ๋“ค์–ด์•ผ ํ•œ๋‹ค๋ฉด ์–ด๋–ค ๊ธฐ๋ฒ•(์˜ˆ: SVM, Random Forest, logistic regression ๋“ฑ)์„ ์‚ฌ์šฉํ•  ๊ฒƒ์ธ์ง€ ์ •ํ•˜๊ณ  ์ด๋ฅผ ํ†ต๊ณ„์™€ ๊ธฐ๊ณ„ํ•™์Šต ์ง€์‹์ด ์ „๋ฌดํ•œ ์‹ค๋ฌด์ž์—๊ฒŒ ์„ค๋ช…ํ•ด๋ด…์‹œ๋‹ค.
  • ๋‚˜๋งŒ์˜ feature selection ๋ฐฉ์‹์„ ์„ค๋ช…ํ•ด๋ด…์‹œ๋‹ค.
  • ๋ฐ์ดํ„ฐ ๊ฐ„์˜ ์œ ์‚ฌ๋„๋ฅผ ๊ณ„์‚ฐํ•  ๋•Œ, feature์˜ ์ˆ˜๊ฐ€ ๋งŽ๋‹ค๋ฉด(์˜ˆ: 100๊ฐœ ์ด์ƒ), ์ด๋Ÿฌํ•œ high-dimensional clustering์„ ์–ด๋–ป๊ฒŒ ํ’€์–ด์•ผํ• ๊นŒ์š”?
    • ์ฐจ์›์ถ•์†Œ

๋จธ์‹ ๋Ÿฌ๋‹

  • Cross Validation์€ ๋ฌด์—‡์ด๊ณ  ์–ด๋–ป๊ฒŒ ํ•ด์•ผํ•˜๋‚˜์š”?
    • ํ•™์Šต ๋ฐ์ดํ„ฐ๋ฅผ K๊ฐœ๋กœ ๋‚˜๋ˆ”
    • K-1๊ฐœ folds๋ฅผ ํ•™์Šตํ•˜๊ณ  ๋‚จ์€ 1๊ฐœ fold์— ๋Œ€ํ•ด ๋ชจ๋ธ ๊ฒ€์ฆ
    • ๋ณด๋‹ค ์—„๋ฐ€ํ•œ ๊ฒ€์ฆ ๊ฐ€๋Šฅ. ํ•˜์ดํผ ํŒŒ๋ผ๋ฏธํ„ฐ ํŠœ๋‹ ๋“ฑ์— ์‚ฌ์šฉ
  • ํšŒ๊ท€ / ๋ถ„๋ฅ˜์‹œ ์•Œ๋งž์€ metric์€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • ํšŒ๊ท€: MAE, MSE, RMSE, MAPE, R2
    • ๋ถ„๋ฅ˜: Accuracy, recall, precision, F1 score, AUC
  • ์•Œ๊ณ  ์žˆ๋Š” metric์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”(ex. RMSE, MAE, recall, precision ...)
  • ์ •๊ทœํ™”(regularization)๋ฅผ ์™œ ํ•ด์•ผํ• ๊นŒ์š”? ์ •๊ทœํ™”์˜ ๋ฐฉ๋ฒ•์€ ๋ฌด์—‡์ด ์žˆ๋‚˜์š”?
    • ๋ชฉ์ : ์˜ค๋ฒ„ํ”ผํŒ… ๋ฐฉ์ง€
    • L1(LASSO):
    • L2(Rigde):
    • Elastic Net:
  • Local Minima์™€ Global Minima์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”.
  • ์ฐจ์›์˜ ์ €์ฃผ์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
    • ๋ณ€์ˆ˜(feature)์˜ ๊ฐœ์ˆ˜ ์ฆ‰ ๋ฐ์ดํ„ฐ์˜ ์ฐจ์›์ด ์ฆ๊ฐ€ํ• ์ˆ˜๋ก ๋ณ€์ˆ˜๊ณต๊ฐ„ ๋‚ด ์ž„์˜์˜ ๋‘ ์  ์‚ฌ์ด์˜ ํ‰๊ท ๊ฑฐ๋ฆฌ๋Š” ๋น ๋ฅด๊ฒŒ ์ฆ๊ฐ€ํ•˜๋ฉฐ ์ „์ฒด ๊ณต๊ฐ„์—์„œ ๋ฐ์ดํ„ฐ๊ฐ€ ์ฐจ์ง€ํ•˜๋Š” ๊ณต๊ฐ„์ด ๋งค์šฐ ์ ์–ด์ง
    • ํ•„์š”ํ•œ ๋ฐ์ดํ„ฐ์˜ ์ˆ˜๊ฐ€ ๊ธฐํ•˜๊ธ‰์ˆ˜์ ์œผ๋กœ ์ฆ๊ฐ€, ํ›ˆ๋ จ์ด ๋Š๋ ค์ง
  • dimension reduction๊ธฐ๋ฒ•์œผ๋กœ ๋ณดํ†ต ์–ด๋–ค ๊ฒƒ๋“ค์ด ์žˆ๋‚˜์š”?
  • PCA๋Š” ์ฐจ์› ์ถ•์†Œ ๊ธฐ๋ฒ•์ด๋ฉด์„œ, ๋ฐ์ดํ„ฐ ์••์ถ• ๊ธฐ๋ฒ•์ด๊ธฐ๋„ ํ•˜๊ณ , ๋…ธ์ด์ฆˆ ์ œ๊ฑฐ๊ธฐ๋ฒ•์ด๊ธฐ๋„ ํ•ฉ๋‹ˆ๋‹ค. ์™œ ๊ทธ๋Ÿฐ์ง€ ์„ค๋ช…ํ•ด์ฃผ์‹ค ์ˆ˜ ์žˆ๋‚˜์š”?
    • Blog post
    • implementation
    • ๋ถ„์‚ฐ์„ค๋ช…๋Ÿ‰ ์ฆ‰ ๊ณต๋ถ„์‚ฐํ–‰๋ ฌ์˜ ๊ณ ์œณ๊ฐ’์ด ํฐ ์ˆœ์„œ๋Œ€๋กœ ์ƒ์œ„ N๊ฐœ์˜ ๊ณ ์œ  ๋ฒกํ„ฐ๋งŒ์„ components๋กœ ์ฑ„ํƒํ•˜๋ฏ€๋กœ ์„ค๋ช…๋ ฅ์ด ๋‚ฎ์€ ๋ณ€์ˆ˜ ์ฆ‰ ๋…ธ์ด์ฆˆ๊ฐ€ ์ œ๊ฑฐ๋  ์ˆ˜ ์žˆ์Œ
    • ๋ฐ์ดํ„ฐ ํ–‰๋ ฌ์„ ํŠน์ • ๋ฒกํ„ฐ์— ํˆฌ์˜(projection)ํ–ˆ์„ ๋•Œ ๊ฐ’๋“ค์˜ ๋ถ„์‚ฐ์ด ์ตœ๋Œ€ํ™”ํ•˜๋Š” ๋ฒกํ„ฐ๋ฅผ ์ฐพ๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜. ์ฆ‰ ๋ฐ์ดํ„ฐ ํ–‰๋ ฌ์˜ ๊ณต๋ถ„์‚ฐ ํ–‰๋ ฌ์˜ ๊ณ ์œณ๊ฐ’ ๋ถ„ํ•ด๋ฅผ ํ†ตํ•ด ์–ป์Œ
  • LSA, LDA, SVD ๋“ฑ์˜ ์•ฝ์ž๋“ค์ด ์–ด๋–ค ๋œป์ด๊ณ  ์„œ๋กœ ์–ด๋–ค ๊ด€๊ณ„๋ฅผ ๊ฐ€์ง€๋Š”์ง€ ์„ค๋ช…ํ•  ์ˆ˜ ์žˆ๋‚˜์š”?
    • SVD
    • LSA
      • Latent Semantic Analysis
      • truncated SVD๋ฅผ ํ™œ์šฉํ•˜์—ฌ ๋ฐ์ดํ„ฐ์˜ ์ฐจ์›์„ ์ถ•์†Œ์‹œํ‚ด. ํ…์ŠคํŠธ ๋ฐ์ดํ„ฐ์˜ ๊ฒฝ์šฐ, ์ถ•์†Œ๋œ ๊ฐ๊ฐ์˜ components๋ฅผ ํ•˜๋‚˜์˜ topic์œผ๋กœ ๊ฐ„์ฃผํ•  ์ˆ˜ ์žˆ์Œ
    • LDA
      • Latent Dirichlet Allocation
      • ๊ฐ ๋ฌธ์„œ(=๋ฌธ์žฅ)์˜ ๋‹จ์–ด๋ฅผ ๋ถ„์„ํ•˜์—ฌ ํ† ํ”ฝ๋ณ„ ๋‹จ์–ด์˜ ๋ถ„ํฌ ๋‚˜์•„๊ฐ€ ๋ฌธ์„œ์˜ ํ† ํ”ฝ ๋น„์œจ์„ ์‚ฐ์ถœ. [ref]
  • Markov Chain์„ ๊ณ ๋“ฑํ•™์ƒ์—๊ฒŒ ์„ค๋ช…ํ•˜๋ ค๋ฉด ์–ด๋–ค ๋ฐฉ์‹์ด ์ œ์ผ ์ข‹์„๊นŒ์š”?
  • ํ…์ŠคํŠธ ๋”๋ฏธ์—์„œ ์ฃผ์ œ๋ฅผ ์ถ”์ถœํ•ด์•ผ ํ•ฉ๋‹ˆ๋‹ค. ์–ด๋–ค ๋ฐฉ์‹์œผ๋กœ ์ ‘๊ทผํ•ด ๋‚˜๊ฐ€์‹œ๊ฒ ๋‚˜์š”?
    • ํ‚ค์›Œ๋“œ ์ถ”์ถœ: TF-iDF, Bert
    • ํ…์ŠคํŠธ ์š”์•ฝ: TextRank, Seq2Seq
  • SVM์€ ์™œ ๋ฐ˜๋Œ€๋กœ ์ฐจ์›์„ ํ™•์žฅ์‹œํ‚ค๋Š” ๋ฐฉ์‹์œผ๋กœ ๋™์ž‘ํ• ๊นŒ์š”? ๊ฑฐ๊ธฐ์„œ ์–ด๋–ค ์žฅ์ ์ด ๋ฐœ์ƒํ–ˆ๋‚˜์š”?
    • rbf, linear, sigmoid ๋“ฑ kernel์„ ํ†ตํ•ด ์ฐจ์›์„ ํ™•์žฅ
    • (ํŠนํžˆ ๋ถ„๋ฅ˜ ๋ฌธ์ œ์—์„œ) ํ™•์žฅ๋œ ๊ณต๊ฐ„์— mapping๋œ data points๋ฅผ ์„ ํ˜•์œผ๋กœ ๊ตฌ๋ถ„ํ•˜๋Š” hyperplane์„ ์ฐพ์„ ์ˆ˜ ์žˆ์Œ
    • ์˜ˆ์‹œ: ์„œ๋กœ ๋‹ค๋ฅธ ๋‘ ํด๋ž˜์Šค์— ์†ํ•˜๋Š” ๋‘ ๋™์‹ฌ์›. [ref]
  • ๋‹ค๋ฅธ ์ข‹์€ ๋จธ์‹  ๋Ÿฌ๋‹ ๋Œ€๋น„, ์˜ค๋ž˜๋œ ๊ธฐ๋ฒ•์ธ ๋‚˜์ด๋ธŒ ๋ฒ ์ด์ฆˆ(naive bayes)์˜ ์žฅ์ ์„ ์˜นํ˜ธํ•ด๋ณด์„ธ์š”.
    • ๊ตฌํ˜„์ด ๊ฐ„๋‹จํ•˜๋ฉฐ ์ƒ˜ํ”Œ๊ณผ ๋ณ€์ˆ˜์˜ ์ˆ˜๊ฐ€ ๋งŽ๋”๋ผ๋„ ๋น ๋ฅธ ํ•™์Šต ๋ฐ ์˜ˆ์ธก์ด ๊ฐ€๋Šฅํ•˜๋‹ค. ์ „์ œ(๊ฐ ๋ณ€์ˆ˜์˜ ๋…๋ฆฝ, ํŠน์ • ๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฆ„)๊ฐ€ ํƒ€๋‹นํ•˜๋‹ค๋ฉด ์–‘ํ˜ธํ•œ ์ •ํ™•๋„๋ฅผ ๊ธฐ๋Œ€ํ•  ์ˆ˜ ์žˆ๋‹ค.
  • Association Rule์˜ Support, Confidence, Lift์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”.
    • support:
    • confidence(A to B):
    • lift:
  • ์ตœ์ ํ™” ๊ธฐ๋ฒ•์ค‘ Newtonโ€™s Method์™€ Gradient Descent ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ์•Œ๊ณ  ์žˆ๋‚˜์š”?
    • Newton's method:

      • ์˜ ํ•ด๋ฅผ ์ฐพ๋Š” ์ˆ˜์น˜ํ•ด์„์  ๋ฐฉ๋ฒ•
    • Gradient decent:

      • ์†์‹คํ•จ์ˆ˜ ๋ฅผ ์ตœ์†Œํ™”ํ•˜๋Š” ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์ฐพ๋Š” ๊ณผ์ •
      • ๊ทธ๋ž˜๋””์–ธํŠธ ๋ฅผ ์ด์šฉํ•จ
  • ๋จธ์‹ ๋Ÿฌ๋‹(machine learning)์  ์ ‘๊ทผ๋ฐฉ๋ฒ•๊ณผ ํ†ต๊ณ„(statistics)์  ์ ‘๊ทผ๋ฐฉ๋ฒ•์˜ ๋‘˜๊ฐ„์— ์ฐจ์ด์— ๋Œ€ํ•œ ๊ฒฌํ•ด๊ฐ€ ์žˆ๋‚˜์š”?
    • ํ†ต๊ณ„์  ์ ‘๊ทผ: ํŠน์ • ํ˜„์ƒ์ด๋‚˜ ์ƒ๊ด€๊ด€๊ณ„๋ฅผ ์ž˜ ์„ค๋ช…ํ•˜๋Š” ๋ถ„ํฌ๋‚˜ ๋ชจํ˜•์ด ์žˆ๋‹ค๊ณ  ๊ฐ€์ •ํ•˜๊ณ  ์ด๋ฅผ ํ‘œํ˜„ํ•˜๋Š” ๋ชจ์ˆ˜(parameters)๋ฅผ ์ฐพ๊ณ ์ž ํ•จ
    • ๋จธ์‹ ๋Ÿฌ๋‹: ์†์‹คํ•จ์ˆ˜ ํ˜น์€ ์„ฑ๋Šฅ์ง€ํ‘œ(metric)์„ ์ƒ์ •ํ•˜๊ณ  ์ด๋ฅผ ์ตœ์ ํ™”ํ•˜๋Š” ๋ฐฉํ–ฅ์œผ๋กœ ๋ชจ๋ธ์„ ๋ฐ์ดํ„ฐ์— ์ ํ•ฉ(fit, train)์‹œํ‚ด
  • ์ธ๊ณต์‹ ๊ฒฝ๋ง(deep learning์ด์ „์˜ ์ „ํ†ต์ ์ธ)์ด ๊ฐ€์ง€๋Š” ์ผ๋ฐ˜์ ์ธ ๋ฌธ์ œ์ ์€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • XOR problem: ํ•˜๋‚˜์˜ perceptron๋งŒ์œผ๋กœ๋Š” ํ•ด๊ฒฐํ•  ์ˆ˜ ์—†์Œ
  • ์ง€๊ธˆ ๋‚˜์˜ค๊ณ  ์žˆ๋Š” deep learning ๊ณ„์—ด์˜ ํ˜์‹ ์˜ ๊ทผ๊ฐ„์€ ๋ฌด์—‡์ด๋ผ๊ณ  ์ƒ๊ฐํ•˜์‹œ๋‚˜์š”?
    • ์—ฌ๋Ÿฌ layers๋ฅผ ์Œ“์œผ๋ฉด์„œ๋„ ์ ์ ˆํ•œ activation function์„ ํ™œ์šฉํ•˜์—ฌ ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ์—†์ด ์œ ์˜๋ฏธํ•œ ํ•™์Šต ๊ฐ€๋Šฅ
    • ์˜ค์ฐจ ์—ญ์ „ํŒŒ๋ฅผ ํ†ตํ•ด gradient๋ฅผ ๊ณ„์‚ฐํ•˜๊ณ  ์ด๋ฅผ ์‚ฌ์šฉํ•ด ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ. ํœด๋ฆฌ์Šคํ‹ฑ ๋ฐฉ๋ฒ•๋ก  ๋“ฑ ์‚ฌ๋žŒ์˜ ๊ฐœ์ž… ์—ฌ์ง€ ์ถ•์†Œ
    • ๋น…๋ฐ์ดํ„ฐ๋ฅผ ํ•™์Šตํ•œ ์‚ฌ์ „ ํ•™์Šต ๋ชจ๋ธ์„ ๋‚˜์˜ ๊ณผ์ œ์— ํ™œ์šฉํ•  ์ˆ˜ ์žˆ์Œ
  • ROC ์ปค๋ธŒ์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์‹ค ์ˆ˜ ์žˆ์œผ์‹ ๊ฐ€์š”?
    • false positive rate๋ฅผ x์ถ•์œผ๋กœ true positive rate(recall=sensitivity)๋ฅผ y์ถ•์œผ๋กœ ํ•˜๋Š” ๊ทธ๋ž˜ํ”„
    • AUC: ROC ์ปค๋ธŒ์™€ y=0, x=1๋กœ ๋‘˜๋Ÿฌ์Œ“์ธ ๋ฉด์ ์˜ ๋„“์ด
  • ์—ฌ๋Ÿฌ๋ถ„์ด ์„œ๋ฒ„๋ฅผ 100๋Œ€ ๊ฐ€์ง€๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ์ด๋•Œ ์ธ๊ณต์‹ ๊ฒฝ๋ง๋ณด๋‹ค Random Forest๋ฅผ ์จ์•ผํ•˜๋Š” ์ด์œ ๋Š” ๋ญ˜๊นŒ์š”?
    • Random Forest๋Š” ๋งŽ์€ Decision tree์˜ ๊ฒฐ๊ณผ๋ฅผ ์•™์ƒ๋ธ”ํ•˜๋Š” ๊ธฐ๋ฒ•
    • ํŠธ๋ฆฌ๋ฅผ ๊ฐ ์„œ๋ฒ„์— ํ• ๋‹นํ•˜์—ฌ ๊ณ„์‚ฐ ์ˆ˜ํ–‰ํ•  ์ˆ˜ ์žˆ์Œ
  • K-means์˜ ๋Œ€ํ‘œ์  ์˜๋ฏธ๋ก ์  ๋‹จ์ ์€ ๋ฌด์—‡์ธ๊ฐ€์š”? (๊ณ„์‚ฐ๋Ÿ‰ ๋งŽ๋‹ค๋Š”๊ฒƒ ๋ง๊ณ )
    • ์ด์ƒ์น˜์— ๋ฏผ๊ฐํ•จ
    • ๊ตฐ์ง‘์˜ ๊ฐœ์ˆ˜๋ฅผ ๋ฏธ๋ฆฌ ์„ค์ •ํ•ด์•ผ ํ•จ
    • non-convex shape ๋ฐ์ดํ„ฐ์— ์ ์šฉํ•˜๊ธฐ ์–ด๋ ค์›€
  • L1, L2 ์ •๊ทœํ™”์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
    • ํŠน์ • ๊ฐ€์ค‘์น˜๊ฐ€ ์—…๋ฐ์ดํŠธ๋ฅผ ๊ฑฐ๋“ญํ•˜๋ฉฐ 0์— ๊ฐ€๊นŒ์›Œ์ง„๋‹ค. ๋”ฐ๋ผ์„œ ์‹ ๊ฒฝ๋ง์ด ๋‹จ์ˆœํ•ด ์ง
    • L1:
    • L2:
  • XGBoost์„ ์•„์‹œ๋‚˜์š”? ์™œ ์ด ๋ชจ๋ธ์ด ์บ๊ธ€์—์„œ ์œ ๋ช…ํ• ๊นŒ์š”?
  • ์•™์ƒ๋ธ” ๋ฐฉ๋ฒ•์—” ์–ด๋–ค ๊ฒƒ๋“ค์ด ์žˆ๋‚˜์š”?
    • bagging: bootstrap๋ฅผ ์‚ฌ์šฉํ•ด ํ•˜๋‚˜์˜ ์› ๋ฐ์ดํ„ฐ์—์„œ ๋‹ค์ˆ˜์˜ ๋ฐ์ดํ„ฐ์…‹์„ ๋งŒ๋“ค๊ณ  ๊ธฐ๋ณธ ๋ถ„๋ฅ˜๊ธฐ๊ฐ€ ์„œ๋กœ ๋‹ค๋ฅธ ๋ฐ์ดํ„ฐ์…‹์„ ํ•™์Šตํ•˜๊ฒŒ ํ•จ. ๊ฐ ๋ถ„๋ฅ˜๊ธฐ์˜ ์˜ˆ์ธก ๊ฒฐ๊ณผ๋ฅผ ํ•ฉ์‚ฐ
    • boosting: ์ž˜๋ชป ๋ถ„๋ฅ˜๋œ ์ƒ˜ํ”Œ์— ํฐ ๊ฐ€์ค‘์น˜๋ฅผ ๋‘์–ด ํ•™์Šต, ์•ฝํ•œ ๋ถ„๋ฅ˜๊ธฐ๋ฅผ ๊ฐ•๊ฑดํ•˜๊ฒŒ ํ•˜๋Š” ๊ธฐ๋ฒ•
    • random forest: ๋‹ค์ˆ˜์˜ ์˜์‚ฌ๊ฒฐ์ •๋‚˜๋ฌด๋ฅผ ์•™์ƒ๋ธ”ํ•˜์—ฌ ์˜ˆ์ธก
  • SVM์€ ์™œ ์ข‹์„๊นŒ์š”?
  • feature vector๋ž€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • ๊ฐ feature๋ฅผ ํ•˜๋‚˜์˜ basis๋กœ ๋ณด๊ณ  ๋ฐ์ดํ„ฐ์…‹์„ ๋ชจ๋“  bases์˜ ์„ ํ˜•๊ฒฐํ•ฉ์œผ๋กœ ํ‘œํ˜„๋˜๋Š” ๊ณต๊ฐ„์œผ๋กœ ๋ด„
  • ์ข‹์€ ๋ชจ๋ธ์˜ ์ •์˜๋Š” ๋ฌด์—‡์ผ๊นŒ์š”?
    • ์–‘ํ˜ธํ•œ ์„ฑ๋Šฅ ์ง€ํ‘œ๋ฅผ ๋ณด์ด๋Š” ๋ชจ๋ธ
    • ์–ด๋– ํ•œ ๋ฐ์ดํ„ฐ์…‹์— ๋Œ€ํ•ด์„œ๋„ ์œ ์‚ฌํ•œ ์„ฑ๋Šฅ์„ ๋ณด์ด๋Š” ๋ชจ๋ธ
  • 50๊ฐœ์˜ ์ž‘์€ ์˜์‚ฌ๊ฒฐ์ • ๋‚˜๋ฌด๋Š” ํฐ ์˜์‚ฌ๊ฒฐ์ • ๋‚˜๋ฌด๋ณด๋‹ค ๊ดœ์ฐฎ์„๊นŒ์š”? ์™œ ๊ทธ๋ ‡๊ฒŒ ์ƒ๊ฐํ•˜๋‚˜์š”?
    • ๋‚˜๋ฌด์˜ ๊ฐœ์ˆ˜๊ฐ€ ๋งŽ์„์ˆ˜๋ก ์ž„์˜์„ฑ์ด ํ™•๋ณด๋˜์–ด ๋ชจ๋ธ์ด ๋ณด๋‹ค robustํ•˜๋‹ค
  • ์ŠคํŒธ ํ•„ํ„ฐ์— ๋กœ์ง€์Šคํ‹ฑ ๋ฆฌ๊ทธ๋ ˆ์…˜์„ ๋งŽ์ด ์‚ฌ์šฉํ•˜๋Š” ์ด์œ ๋Š” ๋ฌด์—‡์ผ๊นŒ์š”?
    • coefficients ๊ธฐ๋ฐ˜, ์ง๊ด€์  ๋ชจ๋ธ, ๊ฒฐ๊ณผ ํ•ด์„์— ์œ ๋ฆฌ
    • Binary classification ๋ฌธ์ œ์— ์ ํ•ฉ, ์ŠคํŒธ ํ™•๋ฅ  ์‚ฐ์ถœ ๊ฐ€๋Šฅ
  • OLS(ordinary least squre) regression์˜ ๊ณต์‹์€ ๋ฌด์—‡์ธ๊ฐ€์š”?

๋”ฅ๋Ÿฌ๋‹

๋”ฅ๋Ÿฌ๋‹ ์ผ๋ฐ˜

  • ๋”ฅ๋Ÿฌ๋‹์€ ๋ฌด์—‡์ธ๊ฐ€์š”? ๋”ฅ๋Ÿฌ๋‹๊ณผ ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ฐจ์ด๋Š”?
    • ๋”ฅ๋Ÿฌ๋‹: ์ธ๊ณต์‹ ๊ฒฝ๋ง์„ ๊นŠ๊ฒŒ ์Œ“์•„ ํ•™์Šตํ•˜๋Š”, ๋จธ์‹ ๋Ÿฌ๋‹ ๊ธฐ๋ฒ• ์ค‘ ํ•˜๋‚˜
    • ์ฐจ์ด
      • ์ „ํ†ต ๋จธ์‹ ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ์„ฑ๋Šฅ์„ ๊ฐœ์„ ํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ์‚ฌ์šฉ์ž ์ฆ‰ ์‚ฌ๋žŒ์˜ ๊ฐ„์„ญ์ด ๋ถˆ๊ฐ€ํ”ผ. ๊ทธ๋Ÿฌ๋‚˜ ๋”ฅ๋Ÿฌ๋‹์€ ํ™˜๊ฒฝ๊ณผ ์•ž์„  ํ•™์Šต์˜ ์˜ค์ฐจ๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ (์Šค์Šค๋กœ) ํ•™์Šต ๋ฐ ์—…๋ฐ์ดํŠธ ๊ฐ€๋Šฅ
      • ์ถœ๋ ฅ๊ฐ’ ํ˜•ํƒœ์˜ ์ข…๋ฅ˜: ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ถœ๋ ฅ๊ฐ’ ์ฆ‰ ์˜ˆ์ธก๊ฐ’์€ ์นดํ…Œ๊ณ ๋ฆฌ๋‚˜ ์ˆซ์ž. ๊ทธ๋Ÿฌ๋‚˜ ๋”ฅ๋Ÿฌ๋‹์€ ์ž์—ฐ์–ด, ์ด๋ฏธ์ง€, ์Œ์„ฑ, ๋น„๋””์˜ค ๋“ฑ์„ ์ถœ๋ ฅ(inference)ํ•  ์ˆ˜ ์žˆ์Œ
  • ์™œ ๊ฐ‘์ž๊ธฐ ๋”ฅ๋Ÿฌ๋‹์ด ๋ถ€ํฅํ–ˆ์„๊นŒ์š”?
    • XOR ๋ฌธ์ œ, gradient vanishing ๋“ฑ ๋ฌธ์ œ๊ฐ€ ์žˆ์—ˆ์ง€๋งŒ ๊ทธ์— ๋Œ€ํ•œ ์†”๋ฃจ์…˜์ด ์ œ์‹œ๋˜์–ด ์‹ ๊ฒฝ๋ง์„ ๊นŠ์ด ์Œ“์•„๋„ ์ •์ƒ์ ์œผ๋กœ ํ•™์Šตํ•  ์ˆ˜ ์žˆ๊ฒŒ ๋จ
    • ์‹ ๊ฒฝ๋ง์„ ๊นŠ์ด ์Œ“์„์ˆ˜๋ก ๋ฐ์ดํ„ฐ์˜ ๋‹ค์–‘ํ•œ ํŠน์„ฑ์„ ํ•™์Šตํ•  ์ˆ˜ ์žˆ์œผ๋ฉฐ ๋ถ„๋ฅ˜ ๋“ฑ ์„ฑ๋Šฅ ํ–ฅ์ƒ์„ ๊ธฐ๋Œ€ํ•  ์ˆ˜ ์žˆ์—ˆ์Œ
  • ๋งˆ์ง€๋ง‰์œผ๋กœ ์ฝ์€ ๋…ผ๋ฌธ์€ ๋ฌด์—‡์ธ๊ฐ€์š”? ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
  • Cost Function๊ณผ Activation Function์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • Cost Function: ๋ชจ๋ธ ์˜ˆ์ธก์˜ ์˜ค์ฐจ ์ •๋„๋ฅผ ์ธก์ •ํ•˜๋Š” ํ•จ์ˆ˜, ์†์‹ค ํ•จ์ˆ˜๋ฅผ ์ตœ์†Œํ™”ํ•˜๋Š” ๋ฐฉํ–ฅ์œผ๋กœ ๋ชจ๋ธ ํ•™์Šต
    • Activation Function: ๋‰ด๋Ÿฐ(๋…ธ๋“œ)์—์„œ ์ถœ๋ ฅ๊ฐ’์„ ๊ฒฐ์ •ํ•˜๋Š” ํ•จ์ˆ˜
  • Tensorflow, Keras, PyTorch, Caffe, Mxnet ์ค‘ ์„ ํ˜ธํ•˜๋Š” ํ”„๋ ˆ์ž„์›Œํฌ์™€ ๊ทธ ์ด์œ ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
  • Data Normalization์€ ๋ฌด์—‡์ด๊ณ  ์™œ ํ•„์š”ํ•œ๊ฐ€์š”?
    • ๊ฐ feature์˜ ํ‰๊ท , ํ‘œ์ค€ํŽธ์ฐจ๋‚˜ ์ตœ๋Œ“๊ฐ’, ์ตœ์†Ÿ๊ฐ’ ๋“ฑ scale์„ ํ†ต์ผํ•˜๋Š” ์ฒ˜๋ฆฌ ๊ธฐ๋ฒ•
    • ์ด์ : ํ•™์Šต ์‹œ๊ฐ„ ๋‹จ์ถ• ๋ฐ ๋ชจ๋ธ ์„ฑ๋Šฅ ํ–ฅ์ƒ
    • ๋ฐ์ดํ„ฐ ์ •๊ทœํ™”๋ฅผ ํ•˜์ง€ ์•Š์œผ๋ฉด feature์— ๋”ฐ๋ผ ๊ฐ€์ค‘์น˜ ๋ณ€๋™ ํญ์ด ๋‹ฌ๋ผ(์†์‹คํ•จ์ˆ˜์—์„œ ๊ฒฝ์‚ฌ๊ฐ€ ๊ฐ€์žฅ ๊ฐ€ํŒŒ๋ฅธ ๋ฐฉํ–ฅ์ด ์ผ์ •์น˜ ์•Š์Œ) optimization ์‹œ zigzagging์ด ์‹ฌํ•ด์ง
  • ์•Œ๊ณ ์žˆ๋Š” Activation Function์— ๋Œ€ํ•ด ์•Œ๋ ค์ฃผ์„ธ์š”. (Sigmoid, ReLU, LeakyReLU, Tanh ๋“ฑ)
    • sigmoid:
    • tanh:
    • ReLU:
    • Leaky ReLU:
  • ์˜ค๋ฒ„ํ”ผํŒ…์ผ ๊ฒฝ์šฐ ์–ด๋–ป๊ฒŒ ๋Œ€์ฒ˜ํ•ด์•ผ ํ• ๊นŒ์š”?
    • ๋ฐ์ดํ„ฐ ์–‘ ์ฆ๊ฐ€, ๋ชจ๋ธ ๋ณต์žก๋„(layers ๊ฐœ์ˆ˜, parameters ๊ฐœ์ˆ˜ ๋“ฑ) ๊ฐ์†Œ, weight decay, dropout
  • ํ•˜์ดํผ ํŒŒ๋ผ๋ฏธํ„ฐ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ๋ชจ๋ธ ๋‚ด๋ถ€ ์—ฐ์‚ฐ์— ์˜ํ•ด ์‚ฐ์ถœ๋˜๋Š” ๊ฐ’์ด ์•„๋‹Œ, ์‚ฌ์šฉ์ž๊ฐ€ ์ง์ ‘ ์ž…๋ ฅํ•ด์ฃผ์–ด์•ผ ํ•˜๋Š” ๊ฐ’
    • CNN์˜ filter ๊ฐœ์ˆ˜, kernel size, stride / dense layer์˜ node ๊ฐœ์ˆ˜ ๋“ฑ
  • Weight Initialization ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ๋งํ•ด์ฃผ์„ธ์š”. ๊ทธ๋ฆฌ๊ณ  ๋ฌด์—‡์„ ๋งŽ์ด ์‚ฌ์šฉํ•˜๋‚˜์š”?
    • implementation
    • ์ž˜๋ชป๋œ ๊ฐ€์ค‘์น˜ ์ดˆ๊ธฐํ™”๋Š” ์‹ ๊ฒฝ๋ง์˜ ํ‘œํ˜„๋ ฅ์„ ์ œํ•œํ•  ์ˆ˜ ์žˆ์Œ
    • Xavier(ํ˜น์€ Glorot): ํ™œ์„ฑํ™” ํ•จ์ˆ˜๊ฐ€ Sigmoid๋‚˜ tanh์ผ ๋•Œ ์‚ฌ์šฉ
      • truncated normal distribution centered on 0 with stddev = sqrt(2 / (fan_in+fan_out))
    • He: ํ™œ์„ฑํ™” ํ•จ์ˆ˜๊ฐ€ ReLU์ผ ๋•Œ ์‚ฌ์šฉ
      • truncated normal distribution centered on 0 with stddev = sqrt(2 / fan_in)
  • ๋ณผ์ธ ๋งŒ ๋จธ์‹ ์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
  • ์š”์ฆ˜ Sigmoid ๋ณด๋‹ค ReLU๋ฅผ ๋งŽ์ด ์“ฐ๋Š”๋ฐ ๊ทธ ์ด์œ ๋Š”?
    • Non-Linearity๋ผ๋Š” ๋ง์˜ ์˜๋ฏธ์™€ ๊ทธ ํ•„์š”์„ฑ์€?
      • linear map์ด ์•„๋‹Œ ๊ฒฝ์šฐ
      • ์„ ํ˜•์ด ์•„๋‹Œ ๊ด€๊ณ„๋ฅผ ํ‘œํ˜„ํ•˜๊ธฐ ์œ„ํ•ด ํ•„์š”ํ•จ
      • ์‹ฌ์ธต์‹ ๊ฒฝ๋ง์—์„œ๋Š” ์€๋‹‰์ธต์„ ๋‹ค์ˆ˜ ์Œ“๋Š” ๊ฒŒ ๊ด€๊ฑด. ๊ทธ๋Ÿฌ๋‚˜ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๊ฐ€ ์„ ํ˜•ํ•จ์ˆ˜์ด๋ฉด ์€๋‹‰์ธต์„ ์Œ“์•„๋„ ๊ฒฐ๊ตญ ์€๋‹‰์ธต์ด ํ•˜๋‚˜์ธ ๋ชจ๋ธ๊ณผ ๋งคํ•œ๊ฐ€์ง€
      • ๋”ฐ๋ผ์„œ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋Š” ๋น„์„ ํ˜• ํ•จ์ˆ˜์—ฌ์•ผ ํ•จ
    • ReLU๋กœ ์–ด๋–ป๊ฒŒ ๊ณก์„  ํ•จ์ˆ˜๋ฅผ ๊ทผ์‚ฌํ•˜๋‚˜?
      • ReLU๋Š” ์„ ํ˜• ํ•จ์ˆ˜์™€ ๋น„์„ ํ˜• ํ•จ์ˆ˜๊ฐ€ ๊ฒฐํ•ฉํ•œ ํ˜•ํƒœ
      • ์—ฌ๋Ÿฌ ์€๋‹‰์ธต์— ๊ฑธ์ณ ReLU๊ฐ€ ์‚ฌ์šฉ๋˜๋ฉด, ๊ฐ ์„ ํ˜• ํ•จ์ˆ˜๊ฐ€ ๋ถ€๋ถ„์ ์œผ๋กœ ๊ฒฐํ•ฉ๋˜์–ด ๋น„์„ ํ˜• ํ•จ์ˆ˜๋ฅผ ๊ทผ์‚ฌํ•˜๊ฒŒ ๋จ
    • ReLU์˜ ๋ฌธ์ œ์ ์€?
      • dying ReLu: ์ž…๋ ฅ์ด ์Œ์ˆ˜์ด๋ฉด ํ•จ์ˆซ๊ฐ’์ด 0์ด ๋จ
    • Bias๋Š” ์™œ ์žˆ๋Š”๊ฑธ๊นŒ?
      • ํ™œ์„ฑํ™” ํ•จ์ˆ˜์˜ trigger๋ฅผ ์กฐ์ ˆํ•˜๋Š” ๋ฐ ์‚ฌ์šฉ๋จ
  • Gradient Descent์— ๋Œ€ํ•ด์„œ ์‰ฝ๊ฒŒ ์„ค๋ช…ํ•œ๋‹ค๋ฉด?
    • ์™œ ๊ผญ Gradient๋ฅผ ์จ์•ผ ํ• ๊นŒ? ๊ทธ ๊ทธ๋ž˜ํ”„์—์„œ ๊ฐ€๋กœ์ถ•๊ณผ ์„ธ๋กœ์ถ• ๊ฐ๊ฐ์€ ๋ฌด์—‡์ธ๊ฐ€? ์‹ค์ œ ์ƒํ™ฉ์—์„œ๋Š” ๊ทธ ๊ทธ๋ž˜ํ”„๊ฐ€ ์–ด๋–ป๊ฒŒ ๊ทธ๋ ค์งˆ๊นŒ?
    • GD ์ค‘์— ๋•Œ๋•Œ๋กœ Loss๊ฐ€ ์ฆ๊ฐ€ํ•˜๋Š” ์ด์œ ๋Š”?
    • ์ตœ์ ํ™” ๊ธฐ๋ฒ•์— ๋”ฐ๋ผ gradient, learning rate๊ฐ€ ๋‹ฌ๋ผ์ง. ๊ฒฝ์šฐ์— ๋”ฐ๋ผ loss๊ฐ€ ์ฆ๊ฐ€ํ•  ์ˆ˜๋„ ์žˆ์Œ
    • ์ค‘ํ•™์ƒ์ด ์ดํ•ดํ•  ์ˆ˜ ์žˆ๊ฒŒ ๋” ์‰ฝ๊ฒŒ ์„ค๋ช… ํ•œ๋‹ค๋ฉด?
    • Back Propagation์— ๋Œ€ํ•ด์„œ ์‰ฝ๊ฒŒ ์„ค๋ช… ํ•œ๋‹ค๋ฉด?
      • ์†์‹ค ํ•จ์ˆ˜์˜ ๊ทธ๋ž˜๋””์–ธํŠธ๋ฅผ ๊ณ„์‚ฐํ•˜์—ฌ ๊ฐ€์ค‘์น˜๋ฅผ ์—…๋ฐ์ดํŠธํ•˜๋Š” ๋ฐฉ๋ฒ•
  • Local Minima ๋ฌธ์ œ์—๋„ ๋ถˆ๊ตฌํ•˜๊ณ  ๋”ฅ๋Ÿฌ๋‹์ด ์ž˜ ๋˜๋Š” ์ด์œ ๋Š”?
    • [ref]
    • ์ด์œ 
      • loss์—์„œ ์ฐจ์ด๋ฅผ ๋ณด์ด๋”๋ผ๋„ metric์€ ์œ ์‚ฌํ•  ์ˆ˜ ์žˆ์Œ
      • trainset๊ณผ test ํ˜น์€ inference ๋ฐ์ดํ„ฐ์˜ ์–‘์ƒ์€ ๋‹ค๋ฆ„
      • ํŒŒ๋ผ๋ฏธํ„ฐ๊ฐ€ ๋งŽ์•„์งˆ์ˆ˜๋ก ์†์‹คํ•จ์ˆ˜๋Š” ๊ณ ์ฐจ์›์ด ๋˜๋Š”๋ฐ ์ด๋•Œ๋Š” optimal local minima๊ฐ€ ๋‹ค์ˆ˜ ์กด์žฌํ•  ์ˆ˜ ์žˆ์Œ
    • GD๊ฐ€ Local Minima ๋ฌธ์ œ๋ฅผ ํ”ผํ•˜๋Š” ๋ฐฉ๋ฒ•์€?
      • stochastic GD: ํ•™์Šต ๋ฐ์ดํ„ฐ๋ฅผ ์—ฌ๋Ÿฌ ๊ฐœ์˜ ๋ฐฐ์น˜(batch)๋กœ ๋‚˜๋ˆ„์–ด(๋ฌด์ž‘์œ„ ๋น„๋ณต์›์ถ”์ถœ) ๋ชจ๋ธ ํ•™์Šต ๋ฐ ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ ์ง„ํ–‰. single batch GD์— ๋น„ํ•ด ๋งค batch๋งˆ๋‹ค ์กฐ๊ธˆ์”ฉ ๋‹ค๋ฅธ ๋ฐฉํ–ฅ(gradient)๋กœ
      • ํ•™์Šต๋ฅ (learning rate) ์กฐ์ •
    • ์ฐพ์€ ํ•ด๊ฐ€ Global Minimum์ธ์ง€ ์•„๋‹Œ์ง€ ์•Œ ์ˆ˜ ์žˆ๋Š” ๋ฐฉ๋ฒ•์€?
      • ํ˜„์‹ค์ ์œผ๋กœ ์ด๋Ÿฌํ•œ ๋ฐฉ๋ฒ•์€ ์—†์Œ
      • ํ•™์Šต ๋ฐ์ดํ„ฐ์—์„œ global minimum์ผ์ง€๋ผ๋„ ํ‰๊ฐ€ ๋ฐ์ดํ„ฐ์—์„œ๋Š” ์•„๋‹ ์ˆ˜ ์žˆ์Œ
  • Training ์„ธํŠธ์™€ Test ์„ธํŠธ๋ฅผ ๋ถ„๋ฆฌํ•˜๋Š” ์ด์œ ๋Š”?
    • Validation ์„ธํŠธ๊ฐ€ ๋”ฐ๋กœ ์žˆ๋Š” ์ด์œ ๋Š”?
      • ๊ฐ€์ค‘์น˜๋ฅผ ์—…๋ฐ์ดํŠธํ•˜๋Š” ๊ณผ์ •์—์„œ validation loss๋ฅผ ๋”ฐ๋กœ ํŒŒ์•…ํ•˜์—ฌ ์˜ค๋ฒ„ํ”ผํŒ…์„ ๋ฐฉ์ง€ํ•˜๊ธฐ ์œ„ํ•จ
    • Test ์„ธํŠธ๊ฐ€ ์˜ค์—ผ๋˜์—ˆ๋‹ค๋Š” ๋ง์˜ ๋œป์€?
      • Test ์„ธํŠธ๋ฅผ ๋‘๋Š” ์ด์œ ๋Š” ๋ชจ๋ธ์ด ํ•œ๋ฒˆ๋„ ํ•™์Šตํ•˜์ง€ ๋ชปํ•œ ๋ฐ์ดํ„ฐ๋กœ ๋ณด๋‹ค ์—„๋ฐ€ํ•˜๊ฒŒ ๋ชจ๋ธ์˜ ์„ฑ๋Šฅ์„ ํŒŒ์•…ํ•˜๊ธฐ ์œ„ํ•จ
      • ์ด๋Ÿฌํ•œ ๋ชฉ์ ์œผ๋กœ ๋ถ„๋ฆฌ๋œ Test ์„ธํŠธ๊ฐ€ ๋ชจ๋ธ ํ•™์Šต์— ์–ด๋– ํ•œ ๋ฐฉ์‹์œผ๋กœ๋“  ๊ฐœ์ž…๋˜์—ˆ๋‹ค๋ฉด ์ด๋ฅผ ์˜ค์—ผ๋˜์—ˆ๋‹ค๊ณ  ํ•จ
    • Regularization์ด๋ž€ ๋ฌด์—‡์ธ๊ฐ€?
  • Batch Normalization์˜ ํšจ๊ณผ๋Š”?
    • Dropout์˜ ํšจ๊ณผ๋Š”?
      • ์ผ๋ถ€ ๋…ธ๋“œ๋ฅผ ๋ฌด์ž‘์œ„๋กœ ๋น„ํ™œ์„ฑํ™”ํ•จ์œผ๋กœ์จ ๋…ธ๋“œ ์‚ฌ์ด์˜ ์˜์กด์„ฑ์„ ์™„ํ™”ํ•จ
    • BN ์ ์šฉํ•ด์„œ ํ•™์Šต ์ดํ›„ ์‹ค์ œ ์‚ฌ์šฉ์‹œ์— ์ฃผ์˜ํ•  ์ ์€? ์ฝ”๋“œ๋กœ๋Š”?
      • ์€๋‹‰์ธต ๋’ค์— ์‚ฌ์šฉ
      • ์•ž์ธต ์ถœ๋ ฅ์˜ ํ‰๊ท ๊ณผ ๋ถ„์‚ฐ์ด ํ•ญ์ƒ ๊ฐ™์Œ. ๋ถ„ํฌ์˜ ๋ณ€ํ™” ์ฆ‰ covariate shift๊ฐ€ ์—†์Œ. ์•ž์ธต ์ถœ๋ ฅ์˜ ์˜ํ–ฅ์„ ๋œ ๋ฐ›์Œ.
      • ๋…๋ฆฝ์ , ๋น ๋ฅด๊ณ  ์•ˆ์ •์ ์ธ ํ•™์Šต
    • GAN์—์„œ Generator ์ชฝ์—๋„ BN์„ ์ ์šฉํ•ด๋„ ๋ ๊นŒ?
  • SGD, RMSprop, Adam์— ๋Œ€ํ•ด์„œ ์•„๋Š”๋Œ€๋กœ ์„ค๋ช…ํ•œ๋‹ค๋ฉด?
    • SGD์—์„œ Stochastic์˜ ์˜๋ฏธ๋Š”?
      • ๋ฏธ๋‹ˆ๋ฐฐ์น˜๋กœ ๋ฌถ์ด๋Š” ๋ฐ์ดํ„ฐ๊ฐ€ ํ™•๋ฅ ์  ์ฆ‰ ๋ฌด์ž‘์œ„๋กœ ์ •ํ•ด์ง„๋‹ค
    • ๋ฏธ๋‹ˆ๋ฐฐ์น˜๋ฅผ ์ž‘๊ฒŒ ํ• ๋•Œ์˜ ์žฅ๋‹จ์ ์€?
      • ์žฅ์ : ๊ฐ€์ค‘์น˜๋ฅผ ์ž์ฃผ ์ˆ˜์ •ํ•  ์ˆ˜ ์žˆ์œผ๋ฏ€๋กœ global minimum์— ์ ‘๊ทผํ•˜๋Š” ๋ฐ ์œ ๋ฆฌ
      • ๋‹จ์ : ํ–‰๋ ฌ ์—ฐ์‚ฐ์˜ ์ด์ ์„ ์‚ด๋ฆฌ๊ธฐ ์–ด๋ ต๋‹ค, ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ ์‹œ ์ง„๋™์ด ์‹ฌํ•˜๋‹ค
    • ๋ชจ๋ฉ˜ํ…€์˜ ์ˆ˜์‹์„ ์ ์–ด ๋ณธ๋‹ค๋ฉด?
      • velocity = momentum * velocity - learning_rate * g
      • w = w + velocity
  • ๊ฐ„๋‹จํ•œ MNIST ๋ถ„๋ฅ˜๊ธฐ๋ฅผ MLP+CPU ๋ฒ„์ „์œผ๋กœ numpy๋กœ ๋งŒ๋“ ๋‹ค๋ฉด ๋ช‡์ค„์ผ๊นŒ?
    • ์–ด๋Š ์ •๋„ ๋Œ์•„๊ฐ€๋Š” ๋…€์„์„ ์ž‘์„ฑํ•˜๊ธฐ๊นŒ์ง€ ๋ช‡์‹œ๊ฐ„ ์ •๋„ ๊ฑธ๋ฆด๊นŒ?
    • Back Propagation์€ ๋ช‡์ค„์ธ๊ฐ€?
    • CNN์œผ๋กœ ๋ฐ”๊พผ๋‹ค๋ฉด ์–ผ๋งˆ๋‚˜ ์ถ”๊ฐ€๋ ๊นŒ?
  • ๊ฐ„๋‹จํ•œ MNIST ๋ถ„๋ฅ˜๊ธฐ๋ฅผ TF, Keras, PyTorch ๋“ฑ์œผ๋กœ ์ž‘์„ฑํ•˜๋Š”๋ฐ ๋ช‡์‹œ๊ฐ„์ด ํ•„์š”ํ•œ๊ฐ€?
    • CNN์ด ์•„๋‹Œ MLP๋กœ ํ•ด๋„ ์ž˜ ๋ ๊นŒ?
      • MLP๋Š” ์ด๋ฏธ์ง€์˜ ์œ„์น˜์ •๋ณด๋ฅผ ๋ณด์กดํ•˜์ง€ ๋ชปํ•˜๋ฏ€๋กœ ์ผ๋ฐ˜์ ์œผ๋กœ ์„ฑ๋Šฅ์ด ๋–จ์–ด์ง
    • ๋งˆ์ง€๋ง‰ ๋ ˆ์ด์–ด ๋ถ€๋ถ„์— ๋Œ€ํ•ด์„œ ์„ค๋ช… ํ•œ๋‹ค๋ฉด?
      • ๋ถ„๋ฅ˜๊ธฐ: Fully connected layer = dense layer = linear layer
      • activation function: sigmoid or softmax
    • ํ•™์Šต์€ BCE loss๋กœ ํ•˜๋˜ ์ƒํ™ฉ์„ MSE loss๋กœ ๋ณด๊ณ  ์‹ถ๋‹ค๋ฉด?
      • keras์˜ ๊ฒฝ์šฐ compile ์‹œ metrics์— MeanSquaredError๋ฅผ ์ถ”๊ฐ€
    • ๋งŒ์•ฝ ํ•œ๊ธ€ (์ธ์‡„๋ฌผ) OCR์„ ๋งŒ๋“ ๋‹ค๋ฉด ๋ฐ์ดํ„ฐ ์ˆ˜์ง‘์€ ์–ด๋–ป๊ฒŒ ํ•  ์ˆ˜ ์žˆ์„๊นŒ?
  • ๋”ฅ๋Ÿฌ๋‹ํ•  ๋•Œ GPU๋ฅผ ์“ฐ๋ฉด ์ข‹์€ ์ด์œ ๋Š”?
    • ํ•™์Šต ์ค‘์ธ๋ฐ GPU๋ฅผ 100% ์‚ฌ์šฉํ•˜์ง€ ์•Š๊ณ  ์žˆ๋‹ค. ์ด์œ ๋Š”?
    • GPU๋ฅผ ๋‘๊ฐœ ๋‹ค ์“ฐ๊ณ  ์‹ถ๋‹ค. ๋ฐฉ๋ฒ•์€?
    • ํ•™์Šต์‹œ ํ•„์š”ํ•œ GPU ๋ฉ”๋ชจ๋ฆฌ๋Š” ์–ด๋–ป๊ฒŒ ๊ณ„์‚ฐํ•˜๋Š”๊ฐ€?
  • TF, Keras, PyTorch ๋“ฑ์„ ์‚ฌ์šฉํ•  ๋•Œ ๋””๋ฒ„๊น… ๋…ธํ•˜์šฐ๋Š”?
    • input๊ณผ output array์˜ dimensionality๋ฅผ ์‚ดํ•€๋‹ค
  • ๋‰ด๋Ÿด๋„ท(neural network)์˜ ๊ฐ€์žฅ ํฐ ๋‹จ์ ์€ ๋ฌด์—‡์ธ๊ฐ€? ์ด๋ฅผ ์œ„ํ•ด ๋‚˜์˜จ One-Shot Learning์€ ๋ฌด์—‡์ธ๊ฐ€?
    • ์‹ ๊ฒฝ๋ง์„ ๊นŠ์ด ์Œ“์„์ˆ˜๋ก ํŒŒ๋ผ๋ฏธํ„ฐ์˜ ์ˆ˜๊ฐ€ ๊ธ‰๊ฒฉํžˆ ์ฆ๊ฐ€ํ•˜๊ณ  ์ด๋ฅผ ํ•™์Šต์‹œํ‚ค๊ธฐ ์œ„ํ•ด์„œ๋Š” ์ƒ์‘ํ•˜๋Š” ์–‘์˜ ๋ฐ์ดํ„ฐ๊ฐ€ ํ•„์š”ํ•จ
    • ๊ทธ์— ๋”ํ•ด ๋ฐ์ดํ„ฐ ๋ถˆ๊ท ํ˜•์ด ์—†์–ด์•ผ ํ•จ

์ปดํ“จํ„ฐ ๋น„์ „

  • OpenCV ๋ผ์ด๋ธŒ๋Ÿฌ๋ฆฌ๋งŒ์„ ์‚ฌ์šฉํ•ด์„œ ์ด๋ฏธ์ง€ ๋ทฐ์–ด(Crop, ํ‘๋ฐฑํ™”, Zoom ๋“ฑ์˜ ๊ธฐ๋Šฅ ํฌํ•จ)๋ฅผ ๋งŒ๋“ค์–ด์ฃผ์„ธ์š”
    • open image: img = cv2.imread(fileName, cv2.IMREAD_COLOR)
    • crop: img_crop = img[h1:h2, w1:w2, :]
    • gray scale: cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    • zoom: cv2.resize(img, dsize = None, fx, fy, interpolation = cv2.INTER_CUBIC)
    • save: cv2.imwrite(fileName, img)
  • ๋”ฅ๋Ÿฌ๋‹ ๋ฐœ๋‹ฌ ์ด์ „์— ์‚ฌ๋ฌผ์„ Detectํ•  ๋•Œ ์ž์ฃผ ์‚ฌ์šฉํ•˜๋˜ ๋ฐฉ๋ฒ•์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ์ด๋ฏธ์ง€์—์„œ hand-crafted feature๋ฅผ ์ถ”์ถœํ•˜์—ฌ ๊ฐ์ฒด๋ฅผ ๊ฒ€์ถœ. ์ˆ˜๋™์œผ๋กœ ์‚ฌ์ „์— ์ •์˜๋œ ์•Œ๊ณ ๋ฆฌ์ฆ˜, ์ „๋ฌธ๊ฐ€์  ์ง€์‹์— ์˜์กด
    • SIFT(Scale-Invariant Feature Transform), HOG(Histogram of Oriented Gradients) ๋“ฑ
  • Fatser R-CNN์˜ ์žฅ์ ๊ณผ ๋‹จ์ ์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ์žฅ์ : region proposal ๋‹จ๊ณ„(๋ฌผ์ฒด์˜ ๋Œ€๋žต์ ์ธ ์œ„์น˜ ์‹๋ณ„)๋ฅผ RPN์œผ๋กœ ์ˆ˜ํ–‰(R-CNN์€ selective search ์‚ฌ์šฉ). ์†๋„ ๊ฐœ์„ , ๊ฐ์ฒด ๊ฒ€์ถœ ์ „ ๋‹จ๊ณ„๋ฅผ ์‹ ๊ฒฝ๋ง์œผ๋กœ๋งŒ ๊ตฌ์„ฑ
    • ๋‹จ์ : ์—ฌ๋Ÿฌ ๋‹จ๊ณ„๋ฅผ ๊ฑฐ์ณ ํ•™์Šต์ด ์ˆ˜ํ–‰๋˜๋ฏ€๋กœ ์‹œ๊ฐ„์ด ์˜ค๋ž˜ ๊ฑธ๋ฆฐ๋‹ค
  • dlib์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ๋จธ์‹ ๋Ÿฌ๋‹ ์•Œ๊ณ ๋ฆฌ์ฆ˜ ๋“ฑ์ด ํฌํ•จ๋œ, C++ ํˆดํ‚ท. ์—ฌ๋Ÿฌ ๊ธฐ๋Šฅ ๊ฐ€์šด๋ฐ HOG feature๋ฅผ ํ™œ์šฉํ•œ face detection ๋“ฑ์ด ์œ ๋ช…ํ•จ
  • YOLO์˜ ์žฅ์ ๊ณผ ๋‹จ์ ์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • one stage detector์˜ ์ผ์ข…
    • region proposal ๋‹จ๊ณ„๋ฅผ ๊ฑด๋„ˆ๋›ฐ๊ณ  CNN ์ธต์—์„œ ์œ„์น˜์™€ ํด๋ž˜์Šค๋ฅผ ๋ชจ๋‘ ์˜ˆ์ธกํ•จ
    • ์žฅ์ : ๋น ๋ฅธ ์ฒ˜๋ฆฌ ์†๋„
      • ์ด๋ฏธ์ง€๋ฅผ ์—ฌ๋Ÿฌ ๊ฐœ์˜ ๊ฒฉ์ž๋กœ ๋‚˜๋ˆ„๊ณ  ๊ฐ ๊ฒฉ์ž์— ๋Œ€ํ•ด ํด๋ž˜์Šค๋ฅผ ๋ถ„๋ฅ˜
      • ์œ„ ๊ณผ์ •์„ ํ†ตํ•ด ์—ฌ๋Ÿฌ ๊ฒฝ๊ณ„๋ฐ•์Šค ํ›„๋ณด ์ƒ์„ฑ
      • NMS๋กœ ์ตœ์ข… ๊ฒฝ๊ณ„๋ฐ•์Šค ์ถ”์ถœ
    • ๋‹จ์ : ์„ฑ๋Šฅ ํ•˜๋ฝ
  • ์ œ์ผ ์ข‹์•„ํ•˜๋Š” Object Detection ์•Œ๊ณ ๋ฆฌ์ฆ˜์— ๋Œ€ํ•ด ์„ค๋ช…ํ•˜๊ณ  ๊ทธ ์•Œ๊ณ ๋ฆฌ์ฆ˜์˜ ์žฅ๋‹จ์ ์— ๋Œ€ํ•ด ์•Œ๋ ค์ฃผ์„ธ์š”
    • ๊ทธ ์ดํ›„์— ๋‚˜์˜จ ๋” ์ข‹์€ ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
  • Average Pooling๊ณผ Max Pooling์˜ ์ฐจ์ด์ ์€?
    • Average Pooling: pool size ๋‚ด์˜ ๊ฐ’์˜ ํ‰๊ท 
    • Max Pooling: pool size ๋‚ด์˜ ๊ฐ’์˜ ์ตœ๋Œ“๊ฐ’
  • Deepํ•œ ๋„คํŠธ์›Œํฌ๊ฐ€ ์ข‹์€ ๊ฒƒ์ผ๊นŒ์š”? ์–ธ์ œ๊นŒ์ง€ ์ข‹์„๊นŒ์š”?
    • ๋ณด๋‹ค ๋งŽ์€ ํŠน์„ฑ์„ ํƒ์ง€ ๋ฐ ํ•™์Šตํ•  ์ˆ˜ ์žˆ๋‹ค
    • ๋‹จ ๋„คํŠธ์›Œํฌ๊ฐ€ ๊นŠ์–ด์ง€๋ฉด gradient vanishing์ด ๋‚˜ํƒ€๋‚  ์ˆ˜ ์žˆ์œผ๋ฉฐ ์ด๋Š” ๋ชจ๋ธ์˜ ํ•™์Šต์„ ๋ฐฉํ•ดํ•œ๋‹ค
  • Residual Network๋Š” ์™œ ์ž˜๋ ๊นŒ์š”? Ensemble๊ณผ ๊ด€๋ จ๋˜์–ด ์žˆ์„๊นŒ์š”?
    • ResNet์—์„œ building blocks๋ฅผ ์Œ“๋Š”๋‹ค๋Š” ๊ฒƒ์€ ์ž…๋ ฅ๊ณผ ์ถœ๋ ฅ์„ ์—ฐ๊ฒฐํ•˜๋Š” O(2^n)๊ฐœ์˜ implicit paths๋ฅผ ์„ค์ •ํ•จ๊ณผ ๊ฐ™์Œ
    • ์ด๋Ÿฌํ•œ paths๋“ค์€ ์„œ๋กœ ๊ฐ•ํ•˜๊ฒŒ ์˜์กดํ•˜์ง€ ์•Š๊ณ  ๊ฒฐ๊ตญ ensemble๊ณผ ์œ ์‚ฌํ•˜๊ฒŒ ํ–‰๋™ํ•จ
    • [paper]
  • CAM(Class Activation Map)์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ๋ถ„๋ฅ˜ ๊ณผ์ œ๋ฅผ ์œ„ํ•ด์„œ๋Š” Flatten layer, Fully connection layer๊ฐ€ ํ•„์š”ํ•จ
    • ๊ทธ๋Ÿฌ๋‚˜ ์ด๋ฅผ ๊ฑฐ์น˜๋ฉด์„œ ์œ„์น˜ ์ •๋ณด๊ฐ€ ์†Œ์‹ค๋จ
    • CNN layer์— Global average pooling layer๋ฅผ ๋ถ™์—ฌ objects์˜ ์œ„์น˜ ์ •๋ณด๋ฅผ ๋ณด์กดํ•  ์ˆ˜ ์žˆ์Œ
    • ์ด๋ฅผ ํ™œ์šฉํ•˜์—ฌ class specific activation map ์ถ”์ถœ. ์ฆ‰ ๋ชจ๋ธ์ด ์ž…๋ ฅ ์ด๋ฏธ์ง€๋ฅผ ํŠน์ • class๋กœ ๋ถ„๋ฅ˜ํ•˜๋Š” ๋ฐ ์˜ํ–ฅ์„ ๋ฏธ์นœ object๋ฅผ heatmap ํ˜•ํƒœ๋กœ ๋‚˜ํƒ€๋ƒ„
  • Localization์€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • ์ด๋ฏธ์ง€ ์† object์˜ ์œ„์น˜๋ฅผ ์„ค์ •ํ•˜๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜
  • ์ž์œจ์ฃผํ–‰ ์ž๋™์ฐจ์˜ ์›๋ฆฌ๋Š” ๋ฌด์—‡์ผ๊นŒ์š”?
    • Object detection: ์ „๋ฐฉ ์นด๋ฉ”๋ผ์— ์žกํžŒ ๋ฌผ์ฒด์˜ ์ข…๋ฅ˜์™€ ์œ„์น˜๋ฅผ ํŒ๋‹จํ•  ๋•Œ ์‚ฌ์šฉ
  • Semantic Segmentation์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ์ด๋ฏธ์ง€์˜ ํ”ฝ์…€๋ณ„๋กœ ํด๋ž˜์Šค๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜
  • Visual Q&A๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ์ด๋ฏธ์ง€์™€ ์งˆ๋ฌธ(์ž์—ฐ์–ด)์ด ์ฃผ์–ด์ง€๋ฉด ์ด๋ฏธ์ง€์˜ ๋‚ด์šฉ์„ ๋ฐ”ํƒ•์œผ๋กœ ์งˆ๋ฌธ์— ๋Œ€ํ•œ ๋‹ต(์ž์—ฐ์–ด)์„ ์ œ์‹œํ•˜๋Š” ๋ชจ๋ธ
    • [paper]
  • Image Captioning์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ์ด๋ฏธ์ง€๋ฅผ ์„ค๋ช…ํ•˜๋Š” ํ…์ŠคํŠธ๋ฅผ ์ƒ์„ฑํ•˜๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜
  • Fully Connected Layer์˜ ๊ธฐ๋Šฅ์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
    • ํ•ฉ์„ฑ๊ณฑ์ธต์—์„œ ์ถ”์ถœ๋œ ํŠน์ง•์„ ํ† ๋Œ€๋กœ ์ด๋ฏธ์ง€๋ฅผ ๋ถ„๋ฅ˜ํ•จ
  • Neural Style Transfer๋Š” ์–ด๋–ป๊ฒŒ ์ง„ํ–‰๋ ๊นŒ์š”?
    • ์Šคํƒ€์ผ ์ด๋ฏธ์ง€์˜ ์Šคํƒ€์ผ์„ ์ถ”์ถœํ•˜์—ฌ ์ฝ˜ํ…ํŠธ ์ด๋ฏธ์ง€์— ์ ์šฉ
  • CNN์— ๋Œ€ํ•ด์„œ ์•„๋Š”๋Œ€๋กœ ์–˜๊ธฐํ•˜๋ผ
    • CNN์ด MLP๋ณด๋‹ค ์ข‹์€ ์ด์œ ๋Š”?
      • MLP๋ฅผ ์‚ฌ์šฉํ•˜๋ฉด (1) 2์ฐจ์› ์ด๋ฏธ์ง€๊ฐ€ 1์ฐจ์› ๋ฒกํ„ฐ๋กœ ๋ฐ”๋€Œ๋ฉฐ ์†Œ์‹ค๋˜๋Š” feature(๊ณต๊ฐ„์  ํŠน์ง•)๊ฐ€ ๋งŽ๋‹ค (2) ์ด๋ฏธ์ง€์˜ ํฌ๊ธฐ๊ฐ€ ์ปค์งˆ์ˆ˜๋ก, ๊นŠ์ด ์Œ“์„์ˆ˜๋ก ํŒŒ๋ผ๋ฏธํ„ฐ์˜ ์ˆ˜๊ฐ€ ๊ธ‰๊ฒฉํžˆ ์ฆ๊ฐ€ํ•œ๋‹ค
      • CNN: 2์ฐจ์› ๊ตฌ์กฐ์˜ ์ •๋ณด๋ฅผ ์žƒ์ง€ ์•Š์œผ๋ฉด์„œ๋„ MLP(FCL)์— ๋น„ํ•ด ํŒŒ๋ผ๋ฏธํ„ฐ์˜ ์ˆ˜๊ฐ€ ์ ๋‹ค
    • ์–ด๋–ค CNN์˜ ํŒŒ๋ผ๋ฏธํ„ฐ ๊ฐœ์ˆ˜๋ฅผ ๊ณ„์‚ฐํ•ด ๋ณธ๋‹ค๋ฉด?
      • kernel params + bias params: (kernel_h * kernel_w) * num_input_channels * num_filters + num_filters
    • ์ฃผ์–ด์ง„ CNN๊ณผ ๋˜‘๊ฐ™์€ MLP๋ฅผ ๋งŒ๋“ค ์ˆ˜ ์žˆ๋‚˜?
    • ํ’€๋ง์‹œ์— ๋งŒ์•ฝ Max๋ฅผ ์‚ฌ์šฉํ•œ๋‹ค๋ฉด ๊ทธ ์ด์œ ๋Š”?
      • pooling window ๋‚ด์—์„œ ๊ฐ€์žฅ ํŠน์ง•์ ์ธ ๊ฐ’์„ ํ†ตํ•ด ์ž…๋ ฅ ์ด๋ฏธ์ง€์˜ ํŠน์„ฑ์„ ์ถ”์ถœํ•จ
    • ์‹œํ€€์Šค ๋ฐ์ดํ„ฐ์— CNN์„ ์ ์šฉํ•˜๋Š” ๊ฒƒ์ด ๊ฐ€๋Šฅํ• ๊นŒ?
  • CV models
    • AlexNet: 5 CNN layers & 3 FC layers. Relu, image augmentation, Batch Normalization, dropout, L2 regularization
    • VGGNet: same hyper-parameters through the whole convolution and pooling layers
    • GoogLeNet: ๋‹ค์–‘ํ•œ ํฌ๊ธฐ์˜ ์ปค๋„์„ ๋™์‹œ์— ์‚ฌ์šฉํ•˜๊ณ  reduce layer๊ฐ€ ์ ์šฉ๋œ inception module ์‚ฌ์šฉ
    • ResNet: Gradient vanishing ๋ฌธ์ œ ํ•ด๊ฒฐ์„ ์œ„ํ•ด Residual block(skip connection) ๋„์ž…
    • MobileNet: ๋ชจ๋ธ ๊ฒฝ๋Ÿ‰ํ™”๋ฅผ ์œ„ํ•ด Depthwise separable convolution ๋„์ž…
    • EfficientNet: ์‹ ๊ฒฝ๋ง์˜ ์ธต์ˆ˜, ์ž…๋ ฅ ์ด๋ฏธ์ง€ ํฌ๊ธฐ, ํ•ฉ์„ฑ๊ณฑ์ธต ํ•„ํ„ฐ์˜ ์ˆ˜ ๋“ฑ์„ ์ตœ์ ํ™”

์ž์—ฐ์–ด ์ฒ˜๋ฆฌ

  • One Hot ์ธ์ฝ”๋”ฉ์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
    • ํ•œ ํŠน์„ฑ์˜ unique value๊ฐ€ N๊ฐœ๋ผ๊ณ  ํ•  ๋•Œ, ๊ทธ ํŠน์„ฑ์„ 0๊ณผ 1๋กœ ๊ตฌ์„ฑ๋œ N์ฐจ์›์˜ ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„ํ•˜๋Š” ๋ฐฉ๋ฒ•
  • POS ํƒœ๊น…์€ ๋ฌด์—‡์ธ๊ฐ€์š”? ๊ฐ€์žฅ ๊ฐ„๋‹จํ•˜๊ฒŒ POS tagger๋ฅผ ๋งŒ๋“œ๋Š” ๋ฐฉ๋ฒ•์€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • part-of-speech ์ฆ‰ ํ’ˆ์‚ฌ ํƒœ๊น…
    • POS tagger๋ฅผ ๋งŒ๋“œ๋Š” ๋ฐฉ๋ฒ•
      • ๋ฐ์ดํ„ฐ์…‹: tokenized๋œ ๋ฌธ์žฅ๊ณผ ๊ฐ ํ† ํฐ์— ๋Œ€์‘๋˜๋Š” ํ’ˆ์‚ฌ๋กœ ๊ตฌ์„ฑ๋œ ๋ฐ์ดํ„ฐ
      • ๋ชจ๋ธ: RNN, LSTM ๋“ฑ
  • ๋ฌธ์žฅ์—์„œ "Apple"์ด๋ž€ ๋‹จ์–ด๊ฐ€ ๊ณผ์ผ์ธ์ง€ ํšŒ์‚ฌ์ธ์ง€ ์‹๋ณ„ํ•˜๋Š” ๋ชจ๋ธ์„ ์–ด๋–ป๊ฒŒ ํ›ˆ๋ จ์‹œํ‚ฌ ์ˆ˜ ์žˆ์„๊นŒ์š”?
    • ๊ฐœ์ฒด๋ช… ์ธ์‹ ๋ชจ๋ธ์„ ๊ตฌ์ถ•
  • ๋‰ด์Šค ๊ธฐ์‚ฌ์— ์ธ์šฉ๋œ ํ…์ŠคํŠธ์˜ ๋ชจ๋“  ํ•ญ๋ชฉ์„ ์–ด๋–ป๊ฒŒ ์ฐพ์„๊นŒ์š”?
  • ์Œ์„ฑ ์ธ์‹ ์‹œ์Šคํ…œ์—์„œ ์ƒ์„ฑ๋œ ํ…์ŠคํŠธ๋ฅผ ์ž๋™์œผ๋กœ ์ˆ˜์ •ํ•˜๋Š” ์‹œ์Šคํ…œ์„ ์–ด๋–ป๊ฒŒ ๊ตฌ์ถ•ํ• ๊นŒ์š”?
  • ์ž ์žฌ๋ก ์ , ์˜๋ฏธ๋ก ์  ์ƒ‰์ธ์€ ๋ฌด์—‡์ด๊ณ  ์–ด๋–ป๊ฒŒ ์ ์šฉํ•  ์ˆ˜ ์žˆ์„๊นŒ์š”?
  • ์˜์–ด ํ…์ŠคํŠธ๋ฅผ ๋‹ค๋ฅธ ์–ธ์–ด๋กœ ๋ฒˆ์—ญํ•  ์‹œ์Šคํ…œ์„ ์–ด๋–ป๊ฒŒ ๊ตฌ์ถ•ํ•ด์•ผ ํ• ๊นŒ์š”?
    • ์•Œ๊ณ ๋ฆฌ์ฆ˜: ๋‹ค๋Œ€๋‹ค ๋ชจ๋ธ. seq2seq, transformer ๋“ฑ
  • ๋‰ด์Šค ๊ธฐ์‚ฌ๋ฅผ ์ฃผ์ œ๋ณ„๋กœ ์ž๋™ ๋ถ„๋ฅ˜ํ•˜๋Š” ์‹œ์Šคํ…œ์„ ์–ด๋–ป๊ฒŒ ๊ตฌ์ถ•ํ• ๊นŒ์š”?
    • ํ† ํ”ฝ ๋ชจ๋ธ๋ง
    • BoW ๊ธฐ๋ฐ˜: LSA, LDA ๋“ฑ
    • BERT ๊ธฐ๋ฐ˜: SBERT(๋ฌธ์žฅ ์ž„๋ฒ ๋”ฉ), CTM(Contextualized Topic Models), BERTopic ๋“ฑ
  • Stop Words๋Š” ๋ฌด์—‡์ผ๊นŒ์š”? ์ด๊ฒƒ์„ ์™œ ์ œ๊ฑฐํ•ด์•ผ ํ•˜๋‚˜์š”?
    • ๋ง๊ณผ ๋ง ์‚ฌ์ด์˜ ๊ด€๊ณ„, ๋ฌธ๋ฒ•์  ๊ด€๊ณ„ ๋“ฑ์„ ๋‚˜ํƒ€๋‚ด๋Š” ๋ง
    • ํŠน์ •ํ•œ ์˜๋„๋ฅผ ๊ฐ€์ง„ ๋ฌธ์žฅ์—๋งŒ ๋‚˜ํƒ€๋‚˜์ง€ ์•Š๊ณ  ๋‘๋ฃจ ๋“ฑ์žฅ. ํ•œ๊ตญ์–ด์˜ ์กฐ์‚ฌ, ์ ‘์†์‚ฌ ๋“ฑ
    • ํ…์Šคํฌ์— ๊ธฐ์ดˆํ•˜์—ฌ ํŠน์ • ํƒœ์Šคํฌ๋ฅผ ์ˆ˜ํ–‰ํ•˜๋Š” ๋ฐ ๋„์›€์ด ๋˜์ง€ ์•Š์Œ. ๊ทธ๋Ÿฌ๋‚˜ ์ž์ฃผ ๋“ฑ์žฅํ•˜๋ฏ€๋กœ ์ด๋ฅผ ์ œ๊ฑฐํ•˜์ง€ ์•Š์œผ๋ฉด ๋ชจ๋ธ๋ง ์‹œ ์ž์›์ด ๋ถˆํ•„์š”ํ•˜๊ฒŒ ์†Œ๋ชจ๋จ
    • ๋ถˆ์šฉ์–ด๋ฅผ ํŒ๋‹จํ•˜๋Š” ์ ˆ๋Œ€์  ๊ธฐ์ค€์€ ์—†์Œ. ํƒœ์Šคํฌ๋‚˜ ๋ฐ์ดํ„ฐ์˜ ํŠน์„ฑ์— ๋งž๊ฒŒ ์„ค์ •ํ•ด์•ผ ํ•จ
  • ์˜ํ™” ๋ฆฌ๋ทฐ๊ฐ€ ๊ธ์ •์ ์ธ์ง€ ๋ถ€์ •์ ์ธ์ง€ ์˜ˆ์ธกํ•˜๊ธฐ ์œ„ํ•ด ๋ชจ๋ธ์„ ์–ด๋–ป๊ฒŒ ์„ค๊ณ„ํ•˜์‹œ๊ฒ ๋‚˜์š”?
    • ๊ธ์ • ํ˜น์€ ๋ถ€์ •์œผ๋กœ labeling๋œ ์ž์—ฐ์–ด ๋ฌธ์žฅ ๋ฐ์ดํ„ฐ์…‹ ์ค€๋น„
    • ํ…์ŠคํŠธ ์ „์ฒ˜๋ฆฌ: tokenizing, encoding, stop words ์ œ๊ฑฐ ๋“ฑ
    • ํ•™์Šต ๋ฐ ๋ชจ๋ธ๋ง ๊ฒ€์ฆ
  • TF-IDF ์ ์ˆ˜๋Š” ๋ฌด์—‡์ด๋ฉฐ ์–ด๋–ค ๊ฒฝ์šฐ ์œ ์šฉํ•œ๊ฐ€์š”?
    • term frequency - inverse document frequency
    • ๋ฌธ์„œ๋ณ„ ํŠน์„ฑ์„ ์ถ”์ถœํ•˜๊ฑฐ๋‚˜ ๋ฌธ์„œ๊ฐ„ ์œ ์‚ฌ๋„๋ฅผ ๊ณ„์‚ฐํ•˜๋Š” ๋ฐ ์œ ์šฉํ•จ. DTM ์‚ฐ์ถœ ์‹œ ๊ฐ ๋‹จ์–ด์˜ ์ค‘์š”๋„๋ฅผ ๋ฐ˜์˜ํ•  ์ˆ˜ ์žˆ์Œ
  • ํ•œ๊ตญ์–ด์—์„œ ๋งŽ์ด ์‚ฌ์šฉ๋˜๋Š” ์‚ฌ์ „์€ ๋ฌด์—‡์ธ๊ฐ€์š”?
  • Regular grammar๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”? regular expression๊ณผ ๋ฌด์Šจ ์ฐจ์ด๊ฐ€ ์žˆ๋‚˜์š”?
  • RNN์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
    • Recurrent Neural Network
    • ํ˜„์‹œ์ ์˜ ๊ฒฐ๊ณผ๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ๋ฐ ํ˜„์‹œ์ ์˜ ์ž…๋ ฅ๊ฐ’๊ณผ ์ด์ „ ์‹œ์ ์˜ ์€๋‹‰ ์ƒํƒœ๋ฅผ ํ•จ๊ป˜ ๊ณ ๋ คํ•˜๋Š” ๋ชจ๋ธ
    • Problem of long-term dependencies: ์‹œ์ ์ด ๊ธธ์–ด์ง€๋ฉด ์ดˆ๊ธฐ ์‹œ์ ์˜ ์ •๋ณด๊ฐ€ ์†์‹ค๋˜๋Š” ๋ฌธ์ œ ๋ฐœ์ƒ
    • ํ˜„์‹œ์ ์„ ์˜ˆ์ธกํ•˜๋Š” ๋ฐ ์ค‘์š”ํ•œ ๋ถ€๋ถ„๊ณผ ํ˜„์‹œ์  ์‚ฌ์ด ๊ฑฐ๋ฆฌ๊ฐ€ ๊ธธ์–ด์ง€๋ฉด ์„ฑ๋Šฅ ํ•˜๋ฝ
  • LSTM์€ ์™œ ์œ ์šฉํ•œ๊ฐ€์š”?
    • Long-Short Term Memory network
    • long-term dependencies๋ฅผ ํ•™์Šตํ•˜๋Š” ๋ฐ ์œ ํšจํ•จ
    • memory cell, input gate, forget gate, output gate
    • implementation
  • Translate ๊ณผ์ • Flow์— ๋Œ€ํ•ด ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
  • n-gram์€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • n๊ฐœ์˜ ์—ฐ์†๋œ ๋‹จ์–ด๋ฅผ ํ•˜๋‚˜์˜ ํ† ํฐ์œผ๋กœ ์ทจ๊ธ‰
    • ์–ธ์–ด ๋ชจ๋ธ์—์„œ ๋ฌธ์žฅ์˜ ๋‹ค์Œ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ๋ฐ ํ•ด๋‹น ๋‹จ์–ด ์ง์ „ ๋“ฑ์žฅํ•œ N๊ฐœ์˜ ๋‹จ์–ด์— ๊ทผ๊ฑฐํ•˜๋Š” ๋ฐฉ์‹. ๋ฌธ์žฅ ์ „์ฒด์˜ ๋งฅ๋ฝ์„ ๊ณ ๋ คํ•˜์ง€ ๋ชปํ•จ
  • PageRank ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ ์–ด๋–ป๊ฒŒ ์ž‘๋™ํ•˜๋‚˜์š”?
  • depedency parsing๋ž€ ๋ฌด์—‡์ธ๊ฐ€์š”?
  • Word2Vec์˜ ์›๋ฆฌ๋Š”?
    • ์›๋ฆฌ: ์ฃผ๋ณ€(skip-gram) ํ˜น์€ ์ค‘์‹ฌ(CBOW) ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ์ธ๊ณต์‹ ๊ฒฝ๋ง์„ ํ•™์Šต, ๋‹จ์–ด๋ฅผ ํŠน์ • ์ฐจ์›์˜ ์‹ค์ˆ˜ ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„. ๋‹จ์–ด์˜ ์˜๋ฏธ๊ฐ€ ์ˆ˜์น˜ํ™”๋˜๋ฉฐ ๋‹จ์–ด ๊ฐ„ ์œ ์‚ฌ๋„๋ฅผ ๋น„๊ตํ•  ์ˆ˜ ์žˆ์Œ
    • ๋‚จ์ž์™€ ์—ฌ์ž๊ฐ€ ๊ฐ€๊นŒ์šธ๊นŒ? ๋‚จ์ž์™€ ์ž๋™์ฐจ๊ฐ€ ๊ฐ€๊นŒ์šธ๊นŒ? - ํ•™์Šตํ•œ corpus์— ๋”ฐ๋ผ ๋‹ค๋ฅผ ๊ฒƒ์ด๋‹ค
    • ๋ฒˆ์—ญ์„ Unsupervised๋กœ ํ•  ์ˆ˜ ์žˆ์„๊นŒ? - A์–ธ์–ด์˜ ๋‹จ์–ด์™€ B์–ธ์–ด์˜ ๋‹จ์–ด๊ฐ€ ๋™์ผํ•œ ๋ฒกํ„ฐ ๊ณต๊ฐ„์— ์ž„๋ฒ ๋”ฉ๋˜์–ด ์žˆ๋‹ค๋ฉด, ๋‹จ์–ด ๊ฐ„ ์œ ์‚ฌ๋„๋ฅผ ๋น„๊ตํ•˜๋Š” ๋ฐฉ์‹์œผ๋กœ word-level ๋ฒˆ์—ญ ๊ฐ€๋Šฅ
  • NLP models.
    • Seq2Seq ๊ณ„์—ด: RNN, LSTM, GRU ๋“ฑ. ์ž…๋ ฅ ๋„๋ฉ”์ธ์˜ ๋ฌธ์žฅ์„ ์ถœ๋ ฅ ๋„๋ฉ”์ธ์œผ๋กœ ๋ฐ”๊ฟˆ. ์žฅ๊ธฐ ๊ธฐ์–ต ๋ฌธ์ œ, ๋ณ‘๋ ฌ ์ฒ˜๋ฆฌ ๋ถˆ๊ฐ€ ๋“ฑ ๋ฌธ์ œ๊ฐ€ ์กด์žฌ
    • BERT: transformer encoder ์‚ฌ์šฉ. base - 12 layers, 768 dims. ์‚ฌ์ „ํ•™์Šต MLM, NSP
    • Electra: ์‚ฌ์ „ํ•™์Šต Replaced token detection. generator & discriminator ๋„คํŠธ์›Œํฌ ์‚ฌ์šฉ

์ถ”์ฒœ ์‹œ์Šคํ…œ

  • ์ถ”์ฒœ ์‹œ์Šคํ…œ์—์„œ ์‚ฌ์šฉํ•  ์ˆ˜ ์žˆ๋Š” ๊ฑฐ๋ฆฌ๋Š” ๋ฌด์—‡์ด ์žˆ์„๊นŒ์š”?
    • cosine, jaccard, pearson, msd
  • User ๋ฒ ์ด์Šค ์ถ”์ฒœ ์‹œ์Šคํ…œ๊ณผ Item ๋ฒ ์ด์Šค ์ถ”์ฒœ ์‹œ์Šคํ…œ ์ค‘ ๋‹จ๊ธฐ๊ฐ„์— ๋น ๋ฅธ ํšจ์œจ์„ ๋‚ผ ์ˆ˜ ์žˆ๋Š” ๊ฒƒ์€ ๋ฌด์—‡์ผ๊นŒ์š”?
    • item-based rec sys.
    • ์ผ๋ฐ˜์ ์œผ๋กœ ์œ ์ €์˜ ์ˆซ์ž๋Š” ์•„์ดํ…œ ์ˆซ์ž์— ๋น„ํ•ด ๋งค์šฐ ํฌ๊ณ  ๊ทธ ํŠน์„ฑ ์—ญ์‹œ ๋งŽ๋‹ค. ๋”๋ถˆ์–ด ์ƒ์•  ์ฃผ๊ธฐ์— ๋”ฐ๋ผ ํŠน์„ฑ์ด ๋ณ€ํ•œ๋‹ค
  • ์„ฑ๋Šฅ ํ‰๊ฐ€๋ฅผ ์œ„ํ•ด ์–ด๋–ค ์ง€ํ‘œ๋ฅผ ์‚ฌ์šฉํ• ๊นŒ์š”?
    • ์ •ํ™•๋„: mae, rmse
    • ๋žญํ‚น: hite rate, ndcg
    • diversity
    • novelty
  • Explicit Feedback๊ณผ Implicit Feedback์€ ๋ฌด์—‡์ผ๊นŒ์š”? Impicit Feedback์„ ์–ด๋–ป๊ฒŒ Explicitํ•˜๊ฒŒ ๋ฐ”๊ฟ€ ์ˆ˜ ์žˆ์„๊นŒ์š”?
    • explicit: ์œ ์ €๊ฐ€ ํŠน์ • ์•„์ดํ…œ์— ๋Œ€ํ•œ ํ˜ธ๋ถˆํ˜ธ๋ฅผ ๋ช…์‹œ์ ์œผ๋กœ ํ‘œํ˜„. ์ข‹์•„์š”/์‹ซ์–ด์š”, ํ‰์  ๋“ฑ
    • implicit: ์œ ์ €์™€ ์•„์ดํ…œ ๊ฐ„์˜ ์ƒํ˜ธ์ž‘์šฉ. ์•„์ดํ…œ ์กฐํšŒ, ๊ตฌ๋งค ๋“ฑ
    • ํŠน์ •ํ•œ ๋กœ์ง์„ ์„ค์ •ํ•˜๊ณ  ๊ทธ์— ๋”ฐ๋ผ implicit์„ ํ†ตํ•ด explicit ์ถ”์ •
  • Matrix Factorization์€ ๋ฌด์—‡์ธ๊ฐ€์š”? ํ•ด๋‹น ์•Œ๊ณ ๋ฆฌ์ฆ˜์˜ ์žฅ์ ๊ณผ ๋‹จ์ ์€?
    • Utility matrix๋ฅผ user latent matrix์™€ item latent matrix์˜ ๊ณฑ์œผ๋กœ ํ‘œํ˜„
    • ์žฅ์ : ๋น„๊ต์  ๋†’์€ ์ •ํ™•๋„, ํ™•์žฅ์„ฑ(scalable), sparse dataset์—๋„ ์ ์šฉ ๊ฐ€๋Šฅ
    • ๋‹จ์ : ์•„์ดํ…œ ํ˜น์€ ์œ ์ €์˜ ํŠน์„ฑ์„ ๋ฐ˜์˜ํ•  ์ˆ˜ ์—†์Œ, cold start
  • SQL์œผ๋กœ ์กฐํšŒ ๊ธฐ๋ฐ˜ Best, ๊ตฌ๋งค ๊ธฐ๋ฐ˜ Best, ์นดํ…Œ๊ณ ๋ฆฌ๋ณ„ Best๋ฅผ ๊ตฌํ•˜๋Š” ์ฟผ๋ฆฌ๋ฅผ ์ž‘์„ฑํ•ด์ฃผ์„ธ์š”
  • ์ถ”์ฒœ ์‹œ์Šคํ…œ์—์„œ KNN ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ํ™œ์šฉํ•  ์ˆ˜ ์žˆ์„๊นŒ์š”?
    • profile, latent factors ๋“ฑ์„ ์ด์šฉํ•ด ์œ ์ €๋‚˜ ์•„์ดํ…œ์„ ๋ฒกํ„ฐ ๊ณต๊ฐ„์— ์ž„๋ฒ ๋”ฉํ•  ์ˆ˜ ์žˆ๋‹ค๋ฉด ๋ฒกํ„ฐ ๊ฐ„ ์œ ์‚ฌ๋„(๊ฑฐ๋ฆฌ) ์ธก์ • ๊ฐ€๋Šฅ
    • ์ด๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ์ตœ๊ทผ์ ‘ ์ด์›ƒ์„ ์ถ”์ถœ
  • ์œ ์ €๊ฐ€ 10๋งŒ๋ช…, ์•„์ดํ…œ์ด 100๋งŒ๊ฐœ ์žˆ์Šต๋‹ˆ๋‹ค. ์ด ๊ฒฝ์šฐ ์ถ”์ฒœ ์‹œ์Šคํ…œ์„ ์–ด๋–ป๊ฒŒ ๊ตฌ์„ฑํ•˜์‹œ๊ฒ ์Šต๋‹ˆ๊นŒ?
  • ๋”ฅ๋Ÿฌ๋‹์„ ํ™œ์šฉํ•œ ์ถ”์ฒœ ์‹œ์Šคํ…œ์˜ ์‚ฌ๋ก€๋ฅผ ์•Œ๋ ค์ฃผ์„ธ์š”
  • ๋‘ ์ถ”์ฒœ์—”์ง„๊ฐ„์˜ ์„ฑ๋Šฅ ๋น„๊ต๋Š” ์–ด๋–ค ์ง€ํ‘œ์™€ ๋ฐฉ๋ฒ•์œผ๋กœ ํ•  ์ˆ˜ ์žˆ์„๊นŒ์š”? ๊ฒ€์ƒ‰์—”์ง„์—์„œ ์“ฐ๋˜ ๋ฐฉ๋ฒ•์„ ๊ทธ๋Œ€๋กœ ์“ฐ๋ฉด ๋ ๊นŒ์š”? ์•ˆ๋ ๊นŒ์š”?
  • Collaborative Filtering์— ๋Œ€ํ•ด ์„ค๋ช…ํ•œ๋‹ค๋ฉด?
    • ํ•œ ์•„์ดํ…œ ํ˜น์€ ์œ ์ €์™€ ์œ ์‚ฌํ•œ ์•„์ดํ…œ/์œ ์ €๋ฅผ ์ฐพ์•„ rating์„ ์ถ”์ •
    • ๋‹จ์ : cold start, sparsity, popularity bias, ์ตœ๊ทผ์ ‘ ์ด์›ƒ ์ถ”์ถœ ์‹œ ์ปดํ“จํŒ… ๋ฆฌ์†Œ์Šค ์†Œ๋ชจ ํผ
  • Cold Start์˜ ๊ฒฝ์šฐ์—” ์–ด๋–ป๊ฒŒ ์ถ”์ฒœํ•ด์ค˜์•ผ ํ• ๊นŒ์š”?
    • ์‹ ๊ทœ ์•„์ดํ…œ: item profile ํ™œ์šฉํ•ด ์œ ์‚ฌํ•œ ์•„์ดํ…œ ์ถ”์ถœ
    • ์‹ ๊ทœ ์œ ์ €: popular item ์ถ”์ฒœ, ํšŒ์›๊ฐ€์ž… ์‹œ ์„ค๋ฌธ์กฐ์‚ฌ
  • ๊ณ ๊ฐ์‚ฌ๋“ค์€ ๊ธฐ์กด ์ถ”์ฒœ์„œ๋น„์Šค์— ๋Œ€ํ•œ ์˜๋ฌธ์ด ์žˆ์Šต๋‹ˆ๋‹ค. ์ฃผ๋กœ ๋งค์ถœ์ด ์‹ค์ œ ์˜ค๋ฅด๋Š”๊ฐ€ ํ•˜๋Š” ๊ฒƒ์ธ๋ฐ, ์ด๋ฅผ ๊ฒ€์ฆํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฉ๋ฒ•์—๋Š” ์–ด๋–ค ๊ฒƒ์ด ์žˆ์„๊นŒ์š”? ์œ„ ๊ด€์ ์—์„œ ์šฐ๋ฆฌ ์„œ๋น„์Šค์˜ ์„ฑ๋Šฅ์„ ๊ณ ๊ฐ์—๊ฒŒ ๋ช…ํ™•ํ•˜๊ฒŒ ์ธ์ง€์‹œํ‚ค๊ธฐ ์œ„ํ•œ ๋ฐฉ๋ฒ•์„ ์ƒ๊ฐํ•ด๋ด…์‹œ๋‹ค.

๋ฐ์ดํ„ฐ๋ฒ ์ด์Šค

  • PostgreSQL์˜ ์žฅ์ ์€ ๋ฌด์—‡์ผ๊นŒ์š”?
  • ์ธ๋ฑ์Šค๋Š” ํฌ๊ฒŒ Hash ์ธ๋ฑ์Šค์™€ B+Tree ์ธ๋ฑ์Šค๊ฐ€ ์žˆ์Šต๋‹ˆ๋‹ค. ์ด๊ฒƒ์€ ๋ฌด์—‡์ผ๊นŒ์š”?
  • ์ธ๋ฑ์Šค Scan ๋ฐฉ์‹์€ ๋ฌด์—‡์ด ์žˆ๋‚˜์š”?
  • ์ธ๋ฑ์Šค ์„ค๊ณ„์‹œ NULL๊ฐ’์€ ๊ณ ๋ ค๋˜์•ผ ํ• ๊นŒ์š”?
  • Nested Loop ์กฐ์ธ์€ ๋ฌด์—‡์ผ๊นŒ์š”?
  • Windows ํ•จ์ˆ˜๋Š” ๋ฌด์—‡์ด๊ณ  ์–ด๋–ป๊ฒŒ ์ž‘์„ฑํ• ๊นŒ์š”?
  • KNN ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์ฟผ๋ฆฌ๋กœ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ์„๊นŒ์š”?
  • MySQL์—์„œ ๋Œ€๋Ÿ‰์˜ ๋ฐ์ดํ„ฐ(500๋งŒ๊ฐœ ์ด์ƒ)๋ฅผ Insertํ•ด์•ผํ•˜๋Š” ๊ฒฝ์šฐ์—” ์–ด๋–ป๊ฒŒ ํ•ด์•ผํ• ๊นŒ์š”?
  • RDB์˜ char์™€ varchar์˜ ์ฐจ์ด๋Š” ๋ฌด์—‡์ผ๊นŒ์š”?
  • ๊ตฌ๊ธ€์˜ BigQuery, AWS์˜ Redshift๋Š” ๊ธฐ์กด RDB์™€ ๋ฌด์Šจ ์ฐจ์ด๊ฐ€ ์žˆ์„๊นŒ์š”? ์™œ ๋น ๋ฅผ๊นŒ์š”?
  • ์ฟผ๋ฆฌ์˜ ์„ฑ๋Šฅ์„ ํ™•์ธํ•˜๊ธฐ ์œ„ํ•ด ์–ด๋–ค ์ฟผ๋ฆฌ๋ฌธ์„ ์ž‘์„ฑํ•ด์•ผ ํ• ๊นŒ์š”?
  • MySQL์ด ์š”์ƒˆ ๋Š๋ฆฌ๋‹ค๋Š” ์‹ ๊ณ ๊ฐ€ ๋“ค์–ด์™”์Šต๋‹ˆ๋‹ค. ์ฒซ๋ฒˆ์งธ๋กœ ๋ฌด์—‡์„ ํ™•์ธํ•˜์‹œ๊ณ  ์กฐ์ •ํ•˜์‹œ๊ฒ ๋‚˜์š”?
  • ๋™์ž‘ํ•˜๋Š” MySQL์— Alter table์„ ํ•˜๋ฉด ์•ˆ๋˜๋Š” ์ด์œ ๋ฅผ ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”. ๊ทธ๋ฆฌ๊ณ  ๋Œ€์•ˆ์„ ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”
  • ๋นก์„ธ๊ฒŒ ๋™์ž‘ํ•˜๊ณ  ์žˆ๋Š” MySQL์„ ๋ฐฑ์—…๋œจ๊ธฐ ์œ„ํ•ด์„œ๋Š” ์–ด๋–ค ๋ฐฉ๋ฒ•์ด ํ•„์š”ํ• ๊นŒ์š”?

๋ฐ์ดํ„ฐ ์‹œ๊ฐํ™”

  • ๋„คํŠธ์›Œํฌ ๊ด€๊ณ„๋ฅผ ์‹œ๊ฐํ™”ํ•ด์•ผ ํ•  ๊ฒฝ์šฐ ์–ด๋–ป๊ฒŒ ํ•ด์•ผํ• ๊นŒ์š”?
  • Tableau๊ฐ™์€ BI Tool์€ ์–ด๋Š ๊ฒฝ์šฐ ๋„์ž…ํ•˜๋ฉด ์ข‹์„๊นŒ์š”?
  • "์‹ ๊ทœ/์žฌ๋ฐฉ๋ฌธ์ž๋ณ„ ์ง€์—ญ๋ณ„(ํ˜น์€ ์ผ๋ณ„) ๋ฐฉ๋ฌธ์ž์ˆ˜์™€ ๊ตฌ๋งค์ „ํ™˜์œจ"์ด๋‚˜ "๊ณ ๊ฐ๋“ฑ๊ธ‰๋ณ„ ์ตœ๊ทผ๋ฐฉ๋ฌธ์ผ๋ณ„ ๊ณ ๊ฐ์ˆ˜์™€ ํ‰๊ท ๊ตฌ๋งค๊ธˆ์•ก"์™€ ๊ฐ™์ด 4๊ฐ€์ง€ ์ด์ƒ์˜ ์ •๋ณด๋ฅผ ์‹œ๊ฐํ™”ํ•˜๋Š” ๊ฐ€์žฅ ์ข‹์€ ๋ฐฉ๋ฒ•์„ ์ถ”์ฒœํ•ด์ฃผ์„ธ์š”
  • ๊ตฌ๋งค์— ์˜ํ–ฅ์„ ์ฃผ๋Š” ์š”์†Œ์˜ ๋ฐœ๊ฒฌ์„ ์œ„ํ•œ ๊ด€์ ์—์„œ, ๊ฐœ์ธ์— ๋Œ€ํ•œ ์‡ผํ•‘๋ชฐ ์›น ํ™œ๋™์˜ ์‹œ๊ณ„์—ด ๋ฐ์ดํ„ฐ๋ฅผ ํšจ๊ณผ์ ์œผ๋กœ ์‹œ๊ฐํ™”ํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฉ๋ฒ•์€ ๋ฌด์—‡์ผ๊นŒ์š”? ํ‘œํ˜„๋˜์–ด์•ผ ํ•˜๋Š” ์ •๋ณด(feature)๋Š” ์–ด๋–ค ๊ฒƒ์ผ๊นŒ์š”? ์‹ค์ œ์‹œ ์–ด๋–ค ๊ฒƒ์ด ๊ฐ€์žฅ ๊ณ ๋ฏผ๋ ๊นŒ์š”?
  • ํŒŒ์ด์ฐจํŠธ๋Š” ์™œ ๊ตฌ๋ฆด๊นŒ์š”? ์–ธ์ œ ๊ตฌ๋ฆฐ๊ฐ€์š”? ์•ˆ๊ตฌ๋ฆด๋•Œ๋Š” ์–ธ์ œ์ธ๊ฐ€์š”?
  • ํžˆ์Šคํ† ๊ทธ๋žจ์˜ ๊ฐ€์žฅ ํฐ ๋ฌธ์ œ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
  • ์›Œ๋“œํด๋ผ์šฐ๋“œ๋Š” ๋ณด๊ธฐ์—” ์˜ˆ์˜์ง€๋งŒ ์•ฝ์ ์ด ์žˆ์Šต๋‹ˆ๋‹ค. ์–ด๋–ค ์•ฝ์ ์ผ๊นŒ์š”?
  • ์–ด๋–ค 1์ฐจ์›๊ฐ’์ด, ๋ฐ์ดํ„ฐ๊ฐ€ ๋ชฐ๋ ค์žˆ์–ด์„œ ์ง์„ ์ƒ์— ํ‘œํ˜„ํ–ˆ์„ ๋•Œ ๋ณด๊ธฐ๊ฐ€ ์‰ฝ์ง€ ์•Š์Šต๋‹ˆ๋‹ค. ์–ด๋–ป๊ฒŒ ํ•ด์•ผํ• ๊นŒ์š”?

๋Œ€ ๊ณ ๊ฐ ์‚ฌ์ด๋“œ

  • ๊ณ ๊ฐ์ด ๊ถ๊ธˆํ•˜๋‹ค๊ณ  ๋งํ•˜๋Š” ์š”์†Œ๊ฐ€ ๋‚ด๊ฐ€ ์ƒ๊ฐํ•˜๊ธฐ์—๋Š” ์ค‘์š”ํ•˜์ง€ ์•Š๊ณ  ๋‹ค๋ฅธ ๋ถ€๋ถ„์ด ๋” ์ค‘์š”ํ•ด ๋ณด์ž…๋‹ˆ๋‹ค. ์–ด๋–ค ์‹์œผ๋กœ ๋Œ€ํ™”๋ฅผ ํ’€์–ด๋‚˜๊ฐ€์•ผ ํ• ๊นŒ์š”?
  • ํ˜„์—… ์นด์šดํ„ฐ ํŒŒํŠธ์™€ ์ž์ฃผ ๋งŒ๋‚˜๋ฉฐ ์‹คํŒจํ•œ ๋ถ„์„๊นŒ์ง€ ๊ฐ™์ด ๊ณต์œ ํ•˜๋Š” ๊ฒฝ์šฐ์™€, ์‹œ๊ฐ„์„ ๋‘๊ณ  ๋ฉ‹์ง„ ๊ฒฐ๊ณผ๋งŒ ๊ณต์œ ํ•˜๋Š” ์ผ€์ด์Šค์—์„œ ๋ฌด์—‡์„ ์„ ํƒํ•˜์‹œ๊ฒ ์Šต๋‹ˆ๊นŒ?
  • ๊ณ ๊ฐ์ด ์งˆ๋ฌธ์ง€ ๋ฆฌ์ŠคํŠธ๋ฅผ 10๊ฐœ๋ฅผ ์ฃผ์—ˆ์Šต๋‹ˆ๋‹ค. ์–ด๋–ค ๊ธฐ์ค€์œผ๋กœ ์šฐ์„ ์ˆœ์œ„๋ฅผ ์ •ํ•ด์•ผ ํ• ๊นŒ์š”?
  • ์˜คํ”„๋ผ์ธ ๋ฐ์ดํ„ฐ๊ฐ€ ๊ฒฐํ•ฉ์ด ๋˜์–ด์•ผ ํ•ด์„œ, ๋ฐ์ดํ„ฐ์˜ ํ”ผ๋“œ๋ฐฑ ์ฃผ๊ธฐ๊ฐ€ ๋งค์šฐ ๋Š๋ฆฌ๊ณ  ์ •ํ•ฉ์„ฑ๋„ ์˜์‹ฌ๋˜๋Š” ์ƒํ™ฉ์ž…๋‹ˆ๋‹ค. ์šฐ๋ฆฌ๊ฐ€ ํ•  ์ˆ˜ ์žˆ๋Š” ์•ก์…˜์ด๋‚˜ ๋ฐฉํ–ฅ ์ˆ˜์ •์€ ๋ฌด์—‡์ผ๊นŒ์š”?
  • ๋™์‹œ์— ์—ฌ๋Ÿฌ๊ฐœ์˜ A/Bํ…Œ์ŠคํŠธ๋ฅผ ๋Œ๋ฆฌ๊ธฐ์—” ๋ชจ์ˆ˜๊ฐ€ ๋ถ€์กฑํ•œ ์ƒํ™ฉ์ž…๋‹ˆ๋‹ค. ์–ด๋–ป๊ฒŒ ํ•ด์•ผํ• ๊นŒ์š”?
  • ๊ณ ๊ฐ์‚ฌ๊ฐ€ ๊ณผ๋„ํ•˜๊ฒŒ ์ •๋ณด์„ฑ ๋Œ€์‹œ๋ณด๋“œ๋งŒ์„ ์š”์ฒญํ•  ๊ฒฝ์šฐ, ์–ด๋–ป๊ฒŒ ๋Œ€์ฒ˜ํ•ด์•ผ ํ• ๊นŒ์š”?
  • ๊ณ ๊ฐ์‚ฌ์—๊ฒŒ ์œ„ํด๋ฆฌ ๋ฆฌํฌํŠธ๋ฅผ ์ œ๊ณตํ•˜๊ณ  ์žˆ์—ˆ๋Š”๋ฐ, ๊ธˆ์ฃผ์—๋Š” ๋ณ„๋‹ค๋ฅธ ๋‚ด์šฉ์ด ์—†์—ˆ์Šต๋‹ˆ๋‹ค. ์–ด๋–ป๊ฒŒ ํ• ๊นŒ์š”?
  • ์นดํŽ˜24, ๋ฉ”์ดํฌ์ƒต ๊ฐ™์€ ์„œ๋น„์Šค์—์„œ ๋ฐ์ดํ„ฐ๋ฅผ ์–ด๋–ป๊ฒŒ ๊ฐ€์ ธ์˜ค๋ฉด ์ข‹์„๊นŒ์š”?
  • ๊ธฐ์กด์— ๊ฐ™์€ ๋ชฉ์ ์˜ ์—…๋ฌด๋ฅผ ์ˆ˜ํ–‰ํ•˜๋˜ ์กฐ์ง์ด ์žˆ์Šต๋‹ˆ๋‹ค. ์–ด๋–ป๊ฒŒ ๊ด€๊ณ„ ํ˜•์„ฑ์„ ํ•ด ๋‚˜๊ฐ€์•ผ ํ• ๊นŒ์š”. ํ˜น์€ ์ผ์ด ๋˜๊ฒŒ ํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ์–ด๋–ค ๋ถ€๋ถ„์ด ํ•ด์†Œ๋˜์–ด์•ผ ํ• ๊นŒ์š”.
  • ์ธํ„ฐ๋ทฐ๋‚˜ ๊ฐ•์˜์— ํ™œ์šฉํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฑ๋ฐ์ดํ„ฐ๋Š” ์–ด๋Š ์ˆ˜์ค€๊นŒ์ง€ ์ผ๋ฐ˜ํ™” ํ•ด์„œ ์‚ฌ์šฉํ•ด์•ผ ํ• ๊นŒ์š”?
  • ๊ณ ๊ฐ์‚ฌ๊ฐ€ ์šฐ๋ฆฌ์™€ ์ผํ•˜๊ณ  ์‹ถ์€๋ฐ ํ˜„์žฌ๋Š” capa๊ฐ€ ๋˜์ง€ ์•Š์Šต๋‹ˆ๋‹ค. ์–ด๋–ป๊ฒŒ ๋Œ€์ฒ˜ํ•ด์•ผ ํ• ๊นŒ์š”?

๊ฐœ์ธ์ •๋ณด

  • ์–ด๋–ค ์ •๋ณด๋“ค์ด ๊ฐœ์ธ์ •๋ณด์— ํ•ด๋‹นํ• ๊นŒ์š”? ID๋Š” ๊ฐœ์ธ์ •๋ณด์— ํ•ด๋‹นํ• ๊นŒ์š”? ์ด๋ฅผ ์–ด๊ธฐ์ง€ ์•Š๋Š” ํ•ฉ๋ฒ•์  ๋ฐฉ๋ฒ•์œผ๋กœ ์‹๋ณ„ํ•˜๊ณ  ์‹ถ์œผ๋ฉด ์–ด๋–ป๊ฒŒ ํ•ด์•ผํ• ๊นŒ์š”?
  • ๊ตญ๋‚ด ๊ฐœ์ธ ์ •๋ณด ๋ณดํ˜ธ ํ˜„ํ™ฉ์— ๋Œ€ํ•œ ๊ฒฌํ•ด๋Š” ์–ด๋– ํ•œ์ง€์š”? ๋งŒ์•ฝ ์‚ฌ์—…์„ ์ง„ํ–‰ํ•˜๋Š”๋ฐ ์žฅ์• ์š”์†Œ๋กœ ์ž‘์šฉํ•œ๋‹ค๋ฉด, ์ด์— ๋Œ€ํ•œ ํ•ด๊ฒฐ ๋ฐฉ์•ˆ์€ ์–ด๋–ค ๊ฒƒ์ด ์žˆ์„๊นŒ์š”?
  • ์ œ3์ž ์ฟ ํ‚ค๋Š” ์™œ ๋ฌธ์ œ๊ฐ€ ๋˜๋‚˜์š”?

Reference

Releases

No releases published

Packages

No packages published