본문 바로가기

AI

부스트캠프 Week1 회고

python 기초에 대해서 배우고 있다.

python에는 흥미로운 특징이 많다.

 

1. Call by Object Reference

  이때까지 사용해 왔던 언어랑 가장 다른 점이라서 신기했다. 

  -5~255 까지는 메모리가 고정이 되어 있다고 한다. 그래서,  a=100 , b=100 이면 a 와 b가 같은 메모리를 가리킨다고 한다. 그래서 a is b 는 ? True!

2. 맨글링 

__str__ 

https://tibetsandfox.tistory.com/21

 

파이썬(python) - 네임 맹글링(name mangling)

네임 맹글링(name mangling)이란? 네임 맹글링은 짓이기다(mangle)라는 어원에서 유추할 수 있듯이 파이썬이 변수/함수의 이름을 짓이겨서 다른 이름으로 바꿔버리는 것을 말합니다. 맹글링을 적용하

tibetsandfox.tistory.com

3. decorator

https://wikidocs.net/160127

 

01) 데코레이터

[TOC] ## 데코레이터 영어 사전에서 decorator를 찾아보면 '장식하는 사람'이라는 뜻을 갖고 있습니다. 파이썬의 데코레이터 역시 동일한 의미로 사용됩니다. 어떤 …

wikidocs.net

 

4. closures /inner function /decorater function 

def star(func):
    def inner(*args, **kwargs):
        print('#'*30)
        func(*args, **kwargs)
        print('#'*30)

    inner("hi")
    return inner

@star
def printer(msg):
    pass

@star
def printer2(msg):
    print(msg)
    print("I'm 2")
    
    
    
#출력은 다음과 같다.
##############################
##############################
##############################
hi
I'm 2
##############################

5. sorted vs list.sort()

전자는 반환값 있고 list에는 변화가 없지만 후자는 반환값 없고 list 자체의 변화가 생김.

6. generator 

https://velog.io/@jewon119/TIL30.-Python-%EC%A0%9C%EB%84%88%EB%A0%88%EC%9D%B4%ED%84%B0Generator-%EA%B0%9C%EB%85%90-%EC%A0%95%EB%A6%AC

 

TIL30. Python : 제너레이터(Generator) 개념 정리

📌 이 포스팅에서는 Python의 제너레이터(Generator)를 정리해보았습니다. 🌈 제너레이터(Generator) 개념 정리 > ### 🔥 제너레이터(Generator) 란? > ### 🔥 제너레이터(Generator) 생성하기 > ### 🔥 리스트

velog.io

7. numpy & pandas

pandas는 연습이 더 필요하다. 나는 강의도 좋지만 조용한 documentation이 더 좋다.

https://pandas.pydata.org/docs/user_guide/index.html#user-guide

 

User Guide — pandas 2.1.2 documentation

User Guide The User Guide covers all of pandas by topic area. Each of the subsections introduces a topic (such as “working with missing data”), and discusses how pandas approaches the problem, with many examples throughout. Users brand-new to pandas sh

pandas.pydata.org

MATH에서는

 

8. pseudo inverse 

https://ko.wikipedia.org/wiki/%EB%AC%B4%EC%96%B4-%ED%8E%9C%EB%A1%9C%EC%A6%88_%EC%9C%A0%EC%82%AC%EC%97%AD%ED%96%89%EB%A0%AC

 

무어-펜로즈 유사역행렬 - 위키백과, 우리 모두의 백과사전

위키백과, 우리 모두의 백과사전. 선형대수학에서 무어-펜로즈 유사역행렬(Moore-Penrose疑似逆行列, 영어: Moore–Penrose pseudoinverse matrix)은 모든 모양의 행렬에 대하여 정의되는 연산이며, 가역 행렬

ko.wikipedia.org

 

9. sampling distribution / sample distribution

중심극한정리

https://ko.wikipedia.org/wiki/%EC%A4%91%EC%8B%AC_%EA%B7%B9%ED%95%9C_%EC%A0%95%EB%A6%AC

 

중심 극한 정리 - 위키백과, 우리 모두의 백과사전

위키백과, 우리 모두의 백과사전. 매우 불규칙한 분포도 충분히 많은 수를 더하면 중심극한정리에 따라 결국 정규분포로 수렴한다. 주사위를 n개 흔들 때 나오는 눈의 합 S n = X 1 + ... + X n의 분포

ko.wikipedia.org

10. Multinoulli

https://en.wikipedia.org/wiki/Categorical_distribution

 

Categorical distribution - Wikipedia

From Wikipedia, the free encyclopedia Discrete probability distribution CategoricalParameters k > 0 {\displaystyle k>0} number of categories (integer) p 1 , … , p k {\displaystyle p_{1},\ldots ,p_{k}} event probabilities ( p i ≥ 0 , Σ p i = 1 ) {\disp

en.wikipedia.org

11. 불편추정량 

https://1992jhlee.tistory.com/19

 

불편추정량(Unbiased Estimate) - 표본분산은 왜 n-1로 나누나?

통계를 공부하다 보니 굉장히 불편한 것을 하나 만나게 됐다. 그것은 바로 표본에서 분산을 정의할 때 원래 알던 분산의 정의(편차의 제곱의 평균)가 아닌 다른 방식으로 정의한다는 것이다. 즉,

1992jhlee.tistory.com

12. KL

https://ko.wikipedia.org/wiki/%EC%BF%A8%EB%B0%B1-%EB%9D%BC%EC%9D%B4%EB%B8%94%EB%9F%AC_%EB%B0%9C%EC%82%B0

 

쿨백-라이블러 발산 - 위키백과, 우리 모두의 백과사전

위키백과, 우리 모두의 백과사전. 쿨백-라이블러 발산(Kullback–Leibler divergence, KLD)은 두 확률분포의 차이를 계산하는 데에 사용하는 함수로, 어떤 이상적인 분포에 대해, 그 분포를 근사하는 다른

ko.wikipedia.org

13. RNN , BPTT

https://ko.wikipedia.org/wiki/%EC%88%9C%ED%99%98_%EC%8B%A0%EA%B2%BD%EB%A7%9D

 

순환 신경망 - 위키백과, 우리 모두의 백과사전

위키백과, 우리 모두의 백과사전. 순환 신경망(Recurrent neural network, RNN)은 인공 신경망의 한 종류로, 유닛간의 연결이 순환적 구조를 갖는 특징을 갖고 있다. 이러한 구조는 시변적 동적 특징을 모

ko.wikipedia.org

 

 

'AI' 카테고리의 다른 글

11/28 깃 강의  (0) 2023.11.28
11/27 + kaggle  (0) 2023.11.27
3주차 회고  (0) 2023.11.24
Transfer learning  (0) 2023.11.19
Week 2 회고  (0) 2023.11.17