우분투, 파이썬, 텐서플로우, 넘파이, 도커, 통계, 컴퓨터구조 등 회사일을 하면서 얻은 모든 지식을 여기다가 정리한다.


Ubuntu 명령어 모음

:

du -sh * # 현재 폴더 용량 확인

FDISK

:



mount

:


달린 device list보는 법

parted -l

fdisk -l


mkdir /home/id/data

mount /dev/sdc1 /home/id/data

즉 폴더만들고 parted -l로 새로 단 장비의 device 이름(sda,sda,sdc)를 보고 그 내부에 partition번호(1,2,3,...)을 보고 해당 partition을 지정한 폴더(/home/id/data)에 mount시킨다. 



Vim 명령어 모음


정규표현식 모음





Discard Data or Fix Data


Feature Engineering은 다음으로 구성되어 있다.

feature selection, feature extraction, feature scaling, create new feature


No Free Lunch Theorem In Machine Learning

:데이터에 대한 어떠한 가설도 없다면, 어떤 모델을 다른 모델보다 더 좋아할 이유가 없다. 따라서 데이터에 대한 도메인 지식이 반드시 필요하다는 것.


Dropout시

tf.placeholder_with_default쓰기(값 안넘기면 default값(1로 두고)을 사용함으로써 test할 때랑 train할 떄 구분 지어줌)


SVM(Support Vector Machine)

:데이터를 뿌려놓고 확률을 생각하지 않고 decision boundary를 구하는 방법

decision boundary를 margin(decision boundary과 가장 가까운 점(a training instance)과의 거리)이 크게 찾고 싶은 것

decision boundary를 support하는 vector를 찾는 것이 목표(결국 너비가 가장 큰 road에 걸려져있는 vectors를 support vector라 한다.)

wx+b가 양수가 나오면 w방향으로의 점들임(w는 평면의 법선벡터)

confidence level = y_i(wx_i+b), y_i는 positive case에 1, negative case에 -1을 assign, 이렇게 함으로써 모든 training instances에 대해 confidence level은 항상 양수

confidence level이 최대가 되게하는 (w,b)를 찾는게 목표(임의의 training instance에 대해 모두다 wx+b=0인 평면에 정사영 시킨 벡터로 벡터를 분리해서 보면 바로 이해가 됨)

x_0와 decision boundary와의 거리는 (wx_0+b)/||w||가 된다. 

만약 decision boundary가 존재한다면, 그리고 그때 support vectors를 wx_1+b = a, wx_2 + b = -a라 하자. (a는 임의의 양수)

그럼 다음과 같은 optimization problem이 된다.

max over (w,b) 2a/||w|| s.t. (wx_j+b)y_j >= a for all j in training instance

a를 편의상 1로 두고 역수취해 min 문제로 바꾸면

min over (w,b) ||w|| s.t. (wx_j+b)y_j >= 1 for all j in training instance

즉 quadratic programming(w의 크기->2차)

Hard margin SVM이란, 어떠한 error case도 허용하지 않는 것

Soft margin SVM이란, error case에 penality를 줌(즉 허용하되 penalty를 부여, decision boundary와 떨어진 거리에 비례하게 혹은 error case의 개수만 고려)

Hard margin SVM은 현실에서 구현이 힘듦(대개는 에러가 생김), Hard나 Soft모두 linear decision boundary를 찾는게 목표, 어쨌든 선형 decision boundary를 찾아야하는데 error case가 생긴다면 Soft margin SVM써야함

Kernel Trick을 이용하면 Hard Margin이면서 nonlinear decision boundary를 찾을 수가 있음.(데이터의 원래 차원에선 nonlinear이지만, feature mapping에 의한 차원 확장 공간에선 linear decision boundary임)

Soft margin SVM에서 

penalty상수에다가 error case 개수를 min에 추가하는 방법이 있을 수 있다. 이건, 모든 error case가 동등하게 penalty줘야하는 경우

penalty상수에다가 support vector를 넘어서는 순간부터 penality를 주는 형태가 있다.

전자는 0/1 loss(decision boundary를 넘어서는 순간부터 error줌), 후자는 hinge loss(decision boundary를 넘지 않았어도 support vector를 넘어서면 penalty 부과)

0/1 loss인 경우가 잘 쓰이지 않는 2가지 이유, 형평성문제(아주 틀린놈이랑 조금 틀린놈이랑 같은 취급), quadratic programming 구현이 어려움

후자에서 hinge loss인 경우 optimization problem은 다음과 같다.

min over (w,b) (||w||+C*sum over all j ξ_j s.t. y_j(wx_j+b) >= 1- ξ_j and ξ_j >=0 for all j in training instances.

(여기서 1-ξ_j를 이해하는게 관건, 원래는 >=1이었는데, >=1-ξ_j란 원래 있어야할 >=1영역보다 떨어진 정도를 1-ξ_j 로 나타낸 것)

후자는 Quadratic Programming이 쉽게 풀림 ξ_j를 slack variable(부가변수)라 한다.

Constraints를 Soften했다고 해서 Soft margin SVM이라 하는 것

Kernel Trick이란, 다른 차원으로 보내서 내적으로 정의되어있지만, 다른 차원으로 보내는 feature mapping function을 구하지말고 구하는 방법을 가리킨다. lagrange multiplier를 구하는 dual

https://www.youtube.com/watch?v=dP9CDyR0L3E

이거부터 보면서 마무리 정리하면 됨



Quadratic Programming

:다변수, 차수는 최대 2차인 함수를 max/min optimization, constraint는 1차로 표현되는 형태릐 문제를 가리킨다.

nonlinear programming의 대표적인 예


Quadratic Residue

:이차잉여를 배우는 이유는 정수계수정수방정식을 풀 때 그냥 풀기는 어려워서 합동식으로 범위를 제한하고 Chinese Remainder Theorem를 써서 구하는게 큰 그림. 이를 위해 일차, 이차 등 합동방정식을 해결먼저하는게 필요하고 그 때 이차잉여, 르장드르 기호 도입 등이 필요함






Decision Tree

:

n:features 총 개수

m:training instances의 총 개수


Parameters(scikit learn기준)

max_depth:tree의 depth의 상한을 설정

presort:학습이전에 데이터를 sort를 먼저 할 지를 정한다. m이 천단위로 적을 땐 True, 만단위이상일 땐 False하는 것이 학습 속도에 도움이 된다.

criterion:gini or entropy, cost function을 계산하여 feature를 greedy하게 나눌 때, impurity를 gini value를 쓸 지 entropy를 쓸 지 정한다. gini와 entropy가 성능 차이가 뚜렷하지 않으므로 계산이 빠른 gini가 default, 두개가 만들어낸 tree가 다를 때를 보면은 gini가 the most frequent class를 독자적인 branch로 두는 경향이 있고 entropy는 balanced tree를 만들어 낸다.

min_samples_split:leaf가 아닌 node가 split될 후보가 되기위한 최소 samples개수, 즉 만약 node_k가 samples가 153인데 min_samples_split가 160이면 학습시 node_k에서 쪼개는 것은 더이상 생각 안함

min_samples_leaf:leaf가 가질 수 있는 최대 samples 개수, 만약 node_k가 samples=7이고 쪼개지면 1과 6으로 쪼개지는 상황인데 min_samples_leaf가 2이면 1<2이므로 쪼개지지 않게 함

max_leaf_nodes:leaf의 최대개수 상한

max_features:학습시 각 node에서 feature를 고르는데 feature 고려 후보 개수 상한, 즉 max_features=5이고 모든 feature개수가 50일 때, 각 node에서 50개 중 임의의 5개의 feature만 택해서 greedy하게 best feature, threshold를 찾아낸다. 적을수록 regularize하는 것이고 overfit risk 낮춤

splitter:각 node에서 greedy하게 택한 best feature를 쓸지, 아니면 random하게 feature택하고 threshold만 적절하게 학습으로 찾을 지 선택


학습과정

:

Cost(feature_name, threshold_value) = left_ratio * left_impurity + right_ratio * right_impurity 가 최소가 되게하는 feature_name과 threshold_value를 택한다. 

즉 the purest subsets(weighted by their size)가 되게끔

이후 각 node마다 위의 과정을 반복하여서 feature_name과 threshold_value를 차례로 설정해나간다. 더이상 training instance가 나눠지지 않을때까지 나누거나 max_depth로 설정한 값까지 나눈다. 즉 greedy하게 학습한다.

greedy하기 때문에 optimal solution인지는 알 수가 없다. optimal solution을 찾는 것은 NP-Complete로 알려져 있으며 O(exp(m))로 알려져 있다. 


regression의 경우

Cost(feature_name, threshold_value) = left_ratio * left_variance + right_ratio * right_variance 가 최소가 되게하는 feature_name과 threshold_value를 택한다.

여기서 left_variance란, left에 속하게 되는 instances의 y값의 편차를 가리킨다.


학습할 때의 계산복잡도는 O(n*m*log(m))이다.


restriction없이 그냥 decision tree를 학습한 후에 모든 children nodes가 leaf인 node중에서 chi-square test using p-value 해서 null hypothesis:이 node를 children과 두는게 성능 향상되는게 우연이다, 라고 둔 확률이 일정 threshold(hyperparameter)보다 크면 accept하고 node의 children를 삭제하는 형태의 constraint를 두기도 한다. pruning(가지치기)라고 한다.



학습후

:

각 node는 다음의 데이터를 갖는다. 

feature_i criteria, ex) length > 0.2, 통과되면 왼쪽 node로 감

gini value(1 - (a_1/samples)^2 - (a_2/samples)^2....), 즉 작을수록 좋고, impurity를 measure하는 metric중 1가지 or entropy (parameter인 criterion을 default가 gini)

(entropy는 각 class의 training instance분포를 기준으로 구함, training instance가 0인 class는 summand로 넣지 않음)

samples(통과된 training instance의 개수), 

value=[a_1,a_2,...a_class개수]로 각 training instances의 class별 개수, 

class(이 node에 있으면 predict한 class값)


tree_clf.predict_proba("feature value list")를 통해 임의의 instance(feature value list로 실현된)를 입력하면

instance가 도착한 node의 samples와 value를 이용하여 instance가 어떤 class인지 predict한 값과, 그 class일 확률을 계산한다.

그 class일 확률 및 다른 class일 확률은 samples와 value를 이용하여 a_1/samples, a_2/samples,...를 통해 계산한다. 즉 training instances들의 그 node에 분포한 확률을 뱉는 것일 뿐. 즉 test instance의 feature값이 무엇이든, 같은 node에 도착하면 class distribution은 같게 나온다.


predict할 때의 계산 복잡도는 O(log(m))이다. Worst case는 O(m), 즉 모든 leaf가 training instance를 1개씩만 갖는 상황. (꼭 한개의 node에 여러 samples가 있을 필요가 없음, 특정 class의 samples가 다 있어야 하는 것도 아님)

따라서 아무리 많은 training instance로 학습하였어도, prediction은 빠르다.





특징

:

데이터 전처리를 거의 필요로 하지 않는다. scaling, centering따위 필요하지 않음

nonparametric(parameter가 없다는 뜻이 아니라, 있지만, 학습 이전에 정하지 않는 다는 의미), 따라서 overfit위험이 크므로 max_depth같은걸 지정함

regularization은 hyperparameter(max*을 줄이거나 min*을 늘리거나 하여 overfit 예방)

decision tree는 기준을 orthogonal하게 잡아버림, 따라서 rotation된 data에 대해선 generalization performance가 약함->PCA쓰고 decision tree쓰면 해결됨

학습데이터의 small variance이 학습된 decision tree 모양을 크게 바꿀 수 있음->instable

scikit-learn의 경우 decision tree를 학습시킬 때마다 (max_features같은게 설정되어 있다면)같은 training data set이어도 다른 모델들이 나올 수 있다. 왜냐하면 random하게 feature를 택하기 때문->instable

이러한 instable문제 때문에 random forest(decision tree의 bagging version)이 등장함




Random Forest

:


Autoencoder

:input, hidden layers, output으로 구성

데이터의 효과적인 표현(coding)을 learning

대개는 더 작은 사이즈로 dimensionality reduction

알아서 적절한 features만 뽑아낼 것(without label and domain knowledge)

->Autoencoder


사용하는 곳

-feature detectors, feature extraction, dimensionality reduction

-generative model


Autoencoder가 단순히 identity가 아닌 이유

-사이즈를 줄여나간 latent feature space

-변형된 Autoencoders(input은 with noise, output은 without noise)



구성

encoder=recognition network

decoder=generative network

output=reconstructions

loss=reconstruction loss


internal representation=latent feature

internal representation < input

이 때 undercomplete autoencoder라 한다


Simple Autoencoder(즉 layer가 가장 적게)에서 

activation function을 안쓰면 PCA와 같다.


Deep Autoencoder

주의사항:너무 딥하게 만들면, 모든 training instance마다 1개의 숫자로 대응시켜버려서

training accuracy는 좋지만 generalize는 못할 수가 있음


전략1:Tying Weights

transpose를 활용하여 같은 weight를 둠으로써 학습할 weight개수를 낮추고 deep하게 가능

fully_connected쓰지말고 직접 행렬을 정의하는게 이때는 훨씬 간결하다

이 때 주의사항

weights1과 weights2만 regularizer에 넣고

weights3과 weights4는 넣으면 안됨

bias는 tied도 regul도 안했음


전략2:한번에 한개의 autoencoder학습시키기

매우 deep한 autoencoder에서 유용하다(효율적인 학습)

즉 한번에 2개의 weight와 2개의 bias를 학습시키자.(그동안 나머지 weight와 bias는 고정)

이때 phrase가 증가함에 따라 input을 매번계산하지않게 하기 위해

값을 저장해두고 쓰기


Visualizing Features

방법1: layer에서 각 뉴런마다 가장 값이 높게 나오는 training instance찾기, 이 때 layer가 top에 있을 때가 효율적임, lower에 있을 때는 매우 추상적이고 값도 적을 가능성이 높다. 예를 들면 first neuron이 가장 높은 값이 있을 때, 그 때의 training instance가 고양이 사진이라면 다른 고양이 사진에서도 first neuron값이 높게 나올 것이다.

방법2:각 뉴런마다 직전 웨이트값을 transpose하여 plot해보기, weight값의 크기를 통해 그 뉴런이 어떤 feature를 찾으려는지 시각화됨

방법3:임의의 랜덤 input(image)를 넣고 내가 관심있는 neuron이 좀 더 activate하게되게 이미지를 수정해나가기(backpropagation)

(Classification의 pretraining 으로 사용할 경우, 그냥 Classification의 성능을 볼 수도 있다.)


Regularization implement example

:

regularizer = tf.contrib.layers.l2_regularizer(l2_reg)

initializer = tf.contrib.layers.variance_scaling_initializer()

X = tf.placeholder(tf.float32, shape=[None, n_inputs])

weights1_init = initializer([n_inputs, n_hidden1])

weights2_init = initializer([n_hidden1, n_hidden2])

weights1 = tf.Variable(weights1_init, dtype=tf.float32, name="weights1")

weights2 = tf.Variable(weights2_init, dtype=tf.float32, name="weights2")

weights3 = tf.transpose(weights2, name="weights3") # tied weights

weights4 = tf.transpose(weights1, name="weights4") # tied weights

biases1 = tf.Variable(tf.zeros(n_hidden1), name="biases1")

biases2 = tf.Variable(tf.zeros(n_hidden2), name="biases2")

biases3 = tf.Variable(tf.zeros(n_hidden3), name="biases3")

biases4 = tf.Variable(tf.zeros(n_outputs), name="biases4")

hidden1 = activation(tf.matmul(X, weights1) + biases1)

hidden2 = activation(tf.matmul(hidden1, weights2) + biases2)

hidden3 = activation(tf.matmul(hidden2, weights3) + biases3)

outputs = tf.matmul(hidden3, weights4) + biases4

reconstruction_loss = tf.reduce_mean(tf.square(outputs - X))

reg_loss = regularizer(weights1) + regularizer(weights2)

loss = reconstruction_loss + reg_loss


Tensorboard

:

now = datetime.utcnow().strftime("%Y%m%d%H%M%S")

root_logdir = "tf_logs"

logdir = "{}/run-{}/".format(root_logdir, now)

mse_summary = tf.summary.scalar('MSE', mse)

file_writer = tf.summary.FileWriter(logdir, tf.get_default_graph())

이렇게 학습시마다 다른 텐서보드를 얻기위해 폴더명에 실행시간을 추가시켜버리는 테크닉가능

summary_str = mse_summary.eval(feed_dict={X: X_batch, y: y_batch})

step = epoch * n_batches + batch_index

file_writer.add_summary(summary_str, step)

이렇게 텐서보드에 표현하고 싶은 필요한 스칼라값을 (학습중에서도 생기는,배치나 에퐄사이에)추가하여 학습, 그러면 events파일로서 저장되어 텐서보드에 표현가능


ROC(Receiver Operating characteristic curve)와 AUC(Area Under Curve)

:

False Positive란 예측값이 Positive인데 틀린(False) case, 즉 실제론 Negative인데 Positive라고 예측한 경우, Type I error

False Negative란 예측값이 Negative인데 틀린(False) case, 즉 실제론 Positive인데 Negative라고 예측한 경우, Type II error

False Positive Rate란 FP/N, 즉 실제 Negative에서 False Positve의 비율, 낮을수록 Negative인 것을 Negative라고 잘 판단

True Positive Rate란 TP/P, 즉 실제 Positive에서 True Positive의 비율, Recall이라고도 불리며 높을 수록 Positive인 것을 Positive라고 잘 판단

ROC란 어떤 binary classifier의 threshold를 다양하게 하여 x축을 FPR, y축을 TPR으로 하여 그린 곡선이다. 해석은 다음과 같다.

-[0,1]x[0,1]에서 그린 곡선이다.

-y=x위의 점인 경우 accuracy가 50%이다.(단 FPR=TPR=0.9인 경우랑 FPR=TPR=0.1인 경우 전자는 그래도 Positive인 것을 Positive라 판단하는 성능은 좋으며, 후자는 Negative인 것을 Negative로 판단하는 성능은 좋음)

-같은 binary classification문제에서 2개의 모델을 threshold를 다양하게하여 ROC curve를 각각 그려 2개를 그린다. 이 때 두 모델중 어느 것이 성능이 더 좋은 지를 판단하는 것을 AUC를 사용하여 구한다. (즉 2개 모델에서 threshold를 뭘하든 모델자체의 성능을 평가하기 위함)

-(FPR, TPR)=(0.9, 0.1)인 경우 엄청 성능이 낮음, random보다도 성능이 낮은 경우

-AUC가 높다->(FPR,TPR)이 좌측 상단에 있다->Better Case->즉 2모델 중 AUC가 높은게 Better Case(threshold가 존재)한다.

-실제로 어떤 threshold hold를 쓸 지는 TPR와 FPR중 무엇이 더 중요한지(즉 Problem마다 다름)를 생각하고 정한다.


Ridge, Lasso, L1, L2, regularization

:

ridge regression이란 bias말고 weight를 l2 norm구해서 l2 norm자체를 loss에 추가한 것

lasso regression이란 bias말고 weight를 l1 norm구해서 l1 norm 자체를 loss에 추가한 것

lasso는 여러 feature중 의미없는 feature를 걸러내는 데 사용

ridge는 weight의 절댓값을 줄임으로써 모델의 generalization의 성능을 끌어올리고자 하는 것

특히 training data가 적을 때 사용


Docker

:

장점

-용량 줄이기. 가상머신은 운영체제를 하나 새로 까니까 용량이 더 든다.

-빠르다. 가상머신은 CPU를 쪼개서 쓰므로 느릴 수 밖에 없다. 프로세스 차원으로 격리시켜 사용하는 도커는 OS를 분리하진 않으므로 기존 자원을 그대로 사용하므로 빠르다.

-


특징

-리눅스 전용

-sudo로만 실행가능, 매번 sudo쓰기 싫으면 sudo usermod -aG docker egoing을 실행시켜 현재 계정을 도커계정에 추가시키면 된다.

-image와 container로 구성, image란 실행파일과 라이브러리의 총합, container란 image를 실행해둔 상태를 가리킨다.





설치하기

-sudo wget -qO- https://get.docker.com/ | sh


사용하기

어떠한 패키지를 사용하는데에 있어서 그것을 일일이 다 설치하기보단 그것을 미리 설치해둔 좀 더 큰 이미지를 받아 실행시킴으로써 패키지 관리자를 사용할 수가 있다.

-우분투 이미지 다운받아 실행하기


push

ex)docker push ~~~~

자기가 만든 이미지를 서버로 공유하는 것

docker와 dochub와의 관계는 git과 github와 비슷하다.


pull

ex)docker pull ubuntu:14.04

우분투 14.04 패키지 시스템이 구성된 이미지를 받아온다.

우분투의 커널을 제외한 모든 리눅스 배포판이 이미지안에 포함되어있다.

ex)docker pull nginx:latest

이처럼 버전을 latest라 두면 가장 최신버전의 이미지를 받아온다.


images

ex)docker images

현재 docker가 갖고 있는 이미지의 리스트를 반환한다.


search

ex)docker search ubuntu

현재 dochub에 있는 ubuntu가 포함된 이미지 리스트를 반환한다.

결과 리스트에서 앞에 아이디가 적혀져있지 않은 것은 도커에서 지원하는 공식 이미지들이다.

하지만 결과 리스트가 너무 많아서, docker.com에서 browse 탭에서 ubuntu라 검색하면 Tags에 버전들 목록이 있으며 그것을 참고해서 docker pull ubuntu:14.04 같이 입력하여 사용하면 된다.


run

ex)docker run -i -t ubuntu:14.04 /bin/bash

설치된 이미지를 통해 container를 실행시키고 들어가는 명령어

/bin/bash를 쳐줌으로써 이미지에 있던 bash파일을 실행하면서 container를 실행

docker는 기본적으로 실행할 메인 실행파일(현재는 /bin/bash)을 함께 실행시켜야 container가 유지되고, 이것을 종료함으로써 container를 종료한다.

-i:interactive환경을 제공

-t:가상터미널환경을 제공

이후 container 내에서 어떠한 패키지들을 설치하면 그것은 원래 운영체제에서는 설치되지않고 container 내에서만 설치가 된다. 마찬가지로 기존 운영체제에 설치된 패키지를 container 내에서 사용할 수가 없다. 완전 독립

ex)docker run -i -t --name bg ubuntu:14.04 /bin/bash

--name을 통해 container의 이름을 붙여 실행시킬 수 있으며, 이는 후에 container를 재실행하기 쉽게 만든다. 만약 name을 지정하지 않았다면 docker가 알아서 이름을 만든다.

container내에서의 패키지 설치 및 사용 등은 container-level에서 독립적이다. 즉 하나의 image로 여러개의 container를 만들어서 사용할 수가 있으며 각개의 container는 독립적으로 운용된다.

ex)docker run -d --name hello-nginx nginx:latest

-d:detached, 백그라운드로 실행, 그렇다보니 bash같은 실행파일을 지정해주지 않아도 된다.


start

ex)docker start "container id"

ex)docker start "container name"

ex)docker start bg

container의 id나 name을 이용하여 container를 실행시킨다. 이 경우 container가 실행되지만 안으로 들어가지는 않는 상태가 된다.


attach

ex)docker attach "container name"

start로 실행시켰던 container로 들어가는 명령어


ps

ex)docker ps

현재 실행중인 container 목록이 나온다.

ex)docker ps -a

과거에 종료했던 container까지도 포함해서 목록이 나온다.

ex)docker container rm "container id"

docker rmi "image_name" 했을 때 특정 container가 사용중이므로 삭제가 안될 때가 있다. 그 때 docker ps해도 container가 켜지지 않았음에도 에러가 날 때가 있는데, 그땐 docker ps -a로 과거 container history를 본 다음에, 확실히 container를 제거해줘야한다. 그때 docker container rm "container_id"가 필요하다.


ctrl+p+q

container 내에서 container를 종료시키지 않고 빠져나오는 명령어

만약 container를 종료시키면서 빠져나오고 싶다면 exit 혹은 ctrl+d를 써서 bash를 꺼주면 된다.


stop

ex)docker stop "container name"

container밖에서 현재 실행 중인 container를 종료시키고 싶을 때 사용하는 명령어


rm

ex)docker rm "container name"

특정 container가 관심없어서 지우고 싶을 때 사용


rmi

ex)docker rmi "image name"

docker가 갖고 있던 image중에서 image를 삭제하는 명령어


exec

ex)docker exec "container name" touch /hello.txt # touch란 파일 만들기 명령어이다.

밖에서 container의 우분투에서 명령을 실행시킬 수가 있다.


commit

ex)docker commit "container id" "image name"

만든 container를 image로 뜨는 명령어이다.


nvidia-docker2설치과정

$ curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | \

  sudo apt-key add -

$ distribution=$(. /etc/os-release;echo $ID$VERSION_ID)

$ curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \

  sudo tee /etc/apt/sources.list.d/nvidia-docker.list

$ sudo apt-get update

$ sudo apt-get install -y nvidia-docker2

$ sudo docker pull nvidia/cuda:10.0-cudnn7-runtime-ubuntu16.04

$ sudo systemctl daemon-reload

$ sudo systemctl restart docker


cp

ex)docker cp "host파일경로" "container name":"container 내부경로" # host->container 파일복사

ex)docker cp "container name":"container 내부경로" "host파일경로" # container->host 파일복사

ex)docker cp docker-cp-test anchore:test



참고자료

http://pyrasis.com/docker.html

https://opentutorials.org/course/128/8657

https://nicewoong.github.io/development/2018/03/06/docker-commit-container/

https://hiseon.me/2018/02/19/install-docker/

https://github.com/NVIDIA/nvidia-docker/issues/838


Git

:

버전관리 시스템 중 하나(version control system)

파일이름을 바꾸지 않으면서도 버전관리, 즉 변경사항을 관리한다.

게다가 backup, recovery, collaboration(다른 사람과 협업) 등이 가능


설치방법

:

sudo apt-get install git

or

sudo yum install git


git init

ex)git init

프로젝트 폴더 내에서 실행하면 이 폴더를 버전관리를 하겠다고 git에게 알려주는 명령어

이후 프로젝트 폴더 내에 .git이란 폴더가 생기고 여기에 모든 작업 내역들이 저장된다.


git status

ex)git status

버전관리를 하겠다고한 폴더내에서 실행하면 현재 폴더 내에 파일들의 status를 알려준다.


git add "file명"

ex)git add f1.txt

git에게 파일을 관리(track)하라고 명령하는 명령어

git init하고나서 이후에 새로 추가된 파일들에게 주로 필요하며, init된 폴더내에 있다고해서 버전관리가 다 필요한 파일들이 아니기때문에, 새로 만들때마다 git add해주어야 한다.

최초 track을 하기 위해서도 git add를 쓰지만, 이후 파일을 수정하고나서 git status하고나면 "modified"가 나오는데, 이때 바로 git commit하여 새버전을 만드는게 안된다.

이때 새 버전을 만들때도 git add "file명" 해주어야 한다.

즉, git add는 1. track(변경이 된건지 아닌건지), 2. make new version, 2가지를 위함에 필요하다.

즉, git은 내가 commit하고 싶은 파일만 등록해서 commit할 수 있게 add를 둔 것, add를 통해서 stage(commit 대기파일들)에 파일을 등록시킨다.


작성자 profile 등록

git config --global user.name bg

git config --global user.name bg@gmail.com

이렇게 함으로써 버전에 작성자 profile을 등록할 수 있다.


git commit

실행하게되면 stage(commit 대기파일들)에 있는 것을 commit한다.

git status한 내용들이 하단에 주석으로 깔리고 상단에는 버전메시지를 입력하게끔 vim으로 .git/COMMIT_EDITMSG파일이 열린다.

버전메시지(commit message)란, 새 버전의 유의미한 변화를 적어주면 된다.

이후 commit하여 생성된 버전이 저장되는 곳을 repository라 한다.


git log

버전메시지들의 log가 남는다. 버전 작성자의 profile과 버전을 만든 data도 출력한다. 그리고 각 commit의 id도 출력한다.

git log -p

버전메시지들의 log와 함께 각 버전마다 직전버전과의 변화를 출력한다. 

기본적으로 버전관리라함은 git init한 폴더 자체를 1개의 버전으로 보기 때문에, 각 버전마다 새로생긴 파일, 수정된 파일 등의 변화를 볼 수가 있다.

git log "commit id"

해당 commit id의 이전 log만 출력한다.

git diff "commit id1".."commit id2"

commit id1과 commit id2 사이의 log -p만 출력, -는 commit id1의 내용, +는 commit id2의 내용을 출력한다.

git diff

작업한 변경사항들을 보여준다. 대개는 commit하기전에 확인차원에서 써본다. add하기 전의 파일들의 수정사항들을 확인하는 것이다. add한 파일들의 수정사항들은 나오지 않는다.


git reset

(버전을 되돌리는 방법이므로, 주의해서 사용해야함, 프로젝트 폴더 전체를 백업떠두고 하는 걸 추천)

git revert






Python3

:

sudo apt-get install python3-pip

pip3 freeze > requirements.txt

pip3 install -r requirements.txt


Numpy

:


Clustering

:


결과에 따른 종류:

Hard clustering:각 instance가 단일 cluster에 속하는 경우

Soft clustering:각 instance가 각 cluster에 속하는 정도를 나타낸 경우


알고리즘에 따른 종류:

K-means clustering:

n개의 instance를 m(<=n)개의 cluster에 속하게끔 분류를 한다. 이 때 C_1, C_2, ..., C_m개의 cluster에 속하는 instances의 평균을 μ1,μ2,...,μm이라 할 때 C_k에 속하는 임의의 instance와 평균사이의 거리제곱의 합이 최소가 되게하는 C_1,C_2,...,C_m을 설정하는 것을 목표로 한다. 방법은 Assignment Step과 Update Step을 반복적으로 시행하여 얻는다. 

먼저 initial values of means를 설정한다. 이후 Assignment(각 점마다 가장 가까운 mean의 cluster에 배정), Update(각 cluster의 새 mean을 구함)

이후 Assignment를 하여도 변함이 없을 때 종료한다. 

특징:


거리(distance)함수를 L2 외 다른 것을 씀으로써 변형 K-means clustering이 가능

만들어진 cluster가 convex하지 않으면 clustering이 실패하거나 means가 엉뚱한 값이 될 수가 있다.

초기 mean 설정에 대한 여러 방법들이 존재


최적 cluster 개수 k를 설정하는 여러 방법들이 존재(거리제곱의 합이 최소 중에 최소가 되는 k 선택, 물론 k=n이면 0이 되지만, k<<n인 k 중에서 거리제곱의 합이 급격히 변화하는 k를 택하거나, silhouette(각 점(i)마다 cluster 내의 다른 점들과의 평균거리(a(i))와 다른 cluster 각각의 평균거리(즉 다른 cluster 내의 점들과의 거리의 평균)의 최솟값 (b(i))를 구한다. 이렇게 각 데이터 i마다 a(i), b(i)를 바탕으로 silhouette score s(i)를 구하고 s(i)의 값에 따라 i가 cluster에 잘 배정됐는지를 해석한다. wiki에서 silhouette clustering을 검색, s(i)값이 높을 수록 좋으며, cluster 개수 k를 증가시키며 평균 silhouette score값이 최대가 되는 k를 택한다. 혹은 이전의 거리제곱의 합이 최소인 것과 동시에 silhouette score를 각 군집마다 결과를 내서 함께 고려하여 k를 결정하기도 한다. Calinski-Harabasz index(군집간 산포와 군집내 산포의 비율을 이용, https://scikit-learn.org/stable/modules/clustering.html#calinski-harabaz-index 참고)를 이용하여 k를 결정하기도 함(물론 silhouette, 거리제곱합 등도 함께 이용)


DBSCAN(Density-Based Spatial Clustering of Applications with Noise):


특징:

non-convex 문제를 해결할 수 있음

k를 먼저 선언하지 않아도 된다.


Ensemble

:

이론 배경은 Law of large number에 있다.


Pandas

:

















'글쓰기 > 진행중' 카테고리의 다른 글

가볼만한 여행지 정리해두기  (0) 2018.10.30
Kaggle 입문  (0) 2018.10.29
운동일기  (0) 2018.10.15
신기술들 요약  (0) 2018.07.09
영어정리  (0) 2018.07.08

국내


서울

-난지도



전라도

-장도(섬)(보성군 벌교읍)

-전라우수영(해남)

-낙안읍성(순천)

-선암사(순천)

-진도(4월에 바닷길 축제)

-




국외


싱가폴에서의 크리스마스? 더운 크리스마스?


'글쓰기 > 진행중' 카테고리의 다른 글

모든 컴퓨터 관련  (1) 2019.01.21
Kaggle 입문  (0) 2018.10.29
운동일기  (0) 2018.10.15
신기술들 요약  (0) 2018.07.09
영어정리  (0) 2018.07.08

1. 

'글쓰기 > 진행중' 카테고리의 다른 글

모든 컴퓨터 관련  (1) 2019.01.21
가볼만한 여행지 정리해두기  (0) 2018.10.30
운동일기  (0) 2018.10.15
신기술들 요약  (0) 2018.07.09
영어정리  (0) 2018.07.08

목표는 아래의 모든 머신기구들 max중량, 셋트당 10~20, 4셋트채우기


1일차

체프:65

팩머:20

숄프:40

렉익:35

레프:80

케프다:20


2일차

체프:75

팩머:20

숄프:40

레프:100

렉익:40

로프다:10

케프다:X


3일차

체프:75

팩머:20

숄프:50

렉익:X

레프:100

로프다:12.5

케프다:X


4일차

체프:80

팩머:25

숄프:50

렉익:45

레프:110

로프다:15

케프다:X



'글쓰기 > 진행중' 카테고리의 다른 글

가볼만한 여행지 정리해두기  (0) 2018.10.30
Kaggle 입문  (0) 2018.10.29
신기술들 요약  (0) 2018.07.09
영어정리  (0) 2018.07.08
좋았던 표현 모음  (0) 2014.08.25

주기동:주간기술동향, 정보통신기술진흥센터


180704 주기동


블록체인 기반의 탈중앙화 사례분석

단계별 제공가치 및 내용

1단계, 공유성, 모든 노드(사용자) 간에 정보를 공유함

2단계, 투명성, 정보 공유로 인해서, 숨기는 항목이 거의 사라짐

2단계, 무결성, '증명 알고리즘' 사용에 의해 공유 정보의 무결성 보장

3단계, 신뢰성, 믿을 수 있는 정보 공유로 노드 사이에 신뢰가 형성됨

4단계, 탈중앙화, 중개 비용 감소, 공유 비용 절감, 개인 권리 강화


GPS 전파교란 동향 및 대응 기술

GPS란, 위성항법시스템(Navigation Satellite System)중 Global, Regional 두가지로 분류할 수가 있는데, Global 중에서도 미국의 Global Positioning System을 GPS라 한다.

GPS 위성에서 송신하는 송출 신호의 세기는 25W로 강한 수준이지만, 지상까지의 거리가 멀어서, 약 20,000km, 지상에서의 수신 신호세기는 휴대전화 최소 수신 전력의 1/300 수준인 -160dBW로 약하다.

교란방법으로 잡음기법(위성 신호보다 40dB 이상의 강한 잡음 신호를 방출하여 수신기가 GPS 신호를 제대로 수신하지 못하게 방해하는 기법)과 기만기법(Meaconing(재머가 위성항법 신호를 수신하여 일정시간 동안 지연시킨 후 재방출하여 근처의 수신기로 하여금 재머 위치를 자신의 현 위치로 착각하게 만드는 방법)과 Spoofing(위성항법 정보를 열어서 내부 정보를 다른 정보로 조작하여 재방출함으로써 수신기로 하여금 재머가 보낸 엉뚱한 위치를 자신의 현 위치로 착각하게 만드는 방법))이 있다.


ICT로 고도화된 월드컵, 실시간 전술 변화 지원과 비디오 판정 도입

트래킹 시스템, 각 팀에 태블릿2개, 선수와 공의 위치 데이터, 각 선수의 달리기 속도, 패스와 압박, 태클 등의 통계데이터 제공 및 경기 영상 전달(30초 정도 딜레이)

VAR(Video Assistant Referee)


제2회 스타트업 월드컵

1위, 류코 랩스, 암 환자의 백혈구 수치를 신체에 의료 기기를 삽입하지 않는 비침습적 방법으로 모니터링하는 기술

2위, 플리토, 실시간 소셜 번역 앱

공동 3위, 스트랩, 시각장애인 지원 웨어러블 기기

공동 3위, 월박스, 전기자동차의 충전 효율 향상 기술

심사기준:임팩트가 강한 하나의 제품을 보유하고 있는가, 이미 사업화가 진행되어 어느 정도의 매출이 있는지


아마존의 인공지능 개발 플랫폼 개방을 통한 AI 생태계 확대 전략

2018년 5월 인공지능 알렉사 활용 앱 플랫폼인 스킬(Skill)에 유료 앱 등록을 모든 개발자에게 오픈함으로써 아마존의 음성 인공지능 생태계가 폭발적으로 확대될 것으로 예상

유어 보이스(Υοur Voice)라는 화자인식 기능도 개방함

이를 통해 하드웨어 제조사들에게 자사의 제품에 알렉사를 쉽게 탑재할 수 있는 기회를 제공, 인공지능 스피커 에코의 가치 상승, 많은 IoT상품들의 출현

Kohler의 Numi라는 인공지능 변, 음성명령에 따라 커버여닫기, 비데 강도 조절, 음악 재생, 물사용량 통계 등 가능


180711 주기동


인공지능의 창업 분야와 기회

1. 인공지능 기반 커머스에서 찾는 창업의 기회, Curation Commerce, 인공지능 기반의 맞춤형 추천, 개인화, 고객들의 특성, 과거 구매 내역 등 기반, Amazon Go는 무인 매장, 소비자는 스마트폰에 앱을 내려 받은 후, 매장에 들어가 계싼대에 줄을 설 필요 없이 원하는 상품을 들고 나오기만 하면 된다. 수백 대의 카메라와 센서들이 소비자가 어떤 물건을 골랐는지 자동으로 인식하고 연결된 신용카드로 결제까지 완료하기 때문

2. 미래 인공지능 챗봇에서 찾는 창업의 기회, 챗봇 자체를 서비스의 중심으로 이끌어가고 싶다면, Nadia와 같이 인간의 감정을 어루만져 줄 수 있는 친구 서비스로 가야한다. 혹은 B2B 형태의 창업으로 다른 서비스에 도움을 주는 형태로 가야한다. 챗봇 비즈니스를 시작할 땐 챗센터(chat Center), 즉 고객이 묻는 채팅 질문에 사람이 직접 대응하는 시스템을 동시에 운영해야 한다. 초기 오픈 단계에서는 90%에 가까운 예외사항들이 발생하고 이러한 예외사항에 대한 데이터를 빠르게 수집하여 적용해야 한다.

3. 인공지능 통번역에서 찾는 창업의 기회

4. 헬스케어 IoT와 인공지능의 결합에서 찾는 창업의 기회, 문신, 렌즈 형태의 센서들이 등장, 정신과 치료는 매일매일 환자의 상태를 파악해야만 좀 더 정밀하고 정확한 진료 가능, 챗봇을 통해 하루3번 상담, 구글 컨택트 렌즈를 통해 당뇨 진단도 가능, 

5. 패션과 인공지능의 결합에서 찾는 창업의 기회, 3D 패션 분야 가상현실을 통해 원단의 재질과 물리적 특성을 구현해 실물같은 옷을 보여줄 수 있다. 옷(티셔츠)에 센서를 달아 VR성능을 키우기도 가능, 자켓에 센서를 달아 스마트폰 제어가능(주요 수요층이 자전거로 출퇴하는 사람)

6. 인공지능 서비스 로봇에서 찾는 창업의 기회, 인공지능 면접관 서비스, 지원자의 얼굴 표정, 음성 등을 모니터링해서 지원자의 성향과 업무 능력 파악, 명품 진위여부 서비스도 가능(Entrupy가 개발한)

7. 가정용 로봇에서 찾는 인공지능 기술창업의 기회, 감정 표현, 소통, 개인 비서, 가전기기 제어, 집안 모니터링, 음악 스트리밍, 영화 재생, 교육(아이들의 질문에 대답과 재미있을만한 이야기를 들려주고 농담도 건넴), 약먹을 시간 알려주기, 담당 의사와 화상통신, 

7가지의 공통점은, '개인화'

IBM 왓슨, 구글 등의 원천 기술을 사용할 것을 추천하며, 대신 자신의 전문 분야(domain)에 노력을 쏟기를 바란다.


기업에서 사용되는 전력의 100%를 재생에너지로 충당하자는 'RE 100' 캠페인에 참여하는 글로벌 대기업들이 늘어나고 있음. (Renewable Energy)


구글 액션 카메라 '클립스clips', 가족이나 애완동물 등을 가르쳐두면, 그 인물을 중심으로 촬영, 미소 혹은 춤, 포옹 등을 스스로 파악해 사진작가처럼 비디오 및 사진을 찍음, 피사체와 1~2미터 거리가 적절, 최고의 씬 6초 정도 클립을 찍음, 


AI 민족주의 우려, 미-중 위주로 AI기술이 집중 발전하여 유전국/비유전국 처럼 지정학 요소가 될 수 있다.


180718 주기동

DQN(Deep Q-network)을 자율주행자동차에 적용하는 시도들이 있었지만 성공하지는 못하였다. 그 이유는 DQN은 ATARI 게임처럼 불연속적인 행동을 처리하는 조작이 간단한 문제에 적합하기 때문이다. 또한 DQN은 시뮬레이션 크기를 조금만 키워도 현재의 컴퓨터 계산 용량으로 처리할 수 없는 "차원의 저주"라는 컴퓨팅 자원의 한계도 가지고 있다. Deep Deterministic Policy Gradient, DDPG가 최근에 개발되었다. 연속적인 행동을 제어할 수 있다.


강화학습 기반 자율주행차량의 제어를 위해서 DQN을 적용하면, 차량의 3가지 행동 즉, 브레이크, 핸들, 가속페달의 값이 연속적이라서 계싼량이 기하급수적으로 증가하여 차원의 저주 문제에 봉착한다.


2017년 7월에는 일본 유명 영어학습 서비스 회사인 '이온(AEON)'이 영어학습용 가상현실 콘텐츠 "영어로 대접 가이드"를 출시하고 이를 애플리케이션으로 제공하여 스마트폰용 HMD를 사용하여 VR형태로 학습이 가능하도록 하였다. 즉, 단어와 예문을 사전 학습하고 대화 상대가 나타나면 배운 것을 토대로 대화를 이어나가는 방식으로 학습, 답변에 따라 달라지는 스토리텔링 콘텐츠를 VR기술을 활용하여 서비스하고 있다.


180725 주기동


딥러닝 기법을 이용한 인공지능 기반의 소비자 선호도 분석 시스템(짬뽕라면 A,B의 고객들의 리뷰를 통해 선호도 및 특성 조사를 딥러닝 기법을 이용하였을 때와 대면 조사(관능평가)의 성능 비교 및 장점이 있다.)

대면 조사의 단점:

-표본 집단의 구성 문제

-사이즈 증가에 따른 비용 문제

-취향 평가를 위한 적합한 질문 만드는 과정 및 평가를 위한 툴만드는 게 어려움

딥러닝 결과가 실제 대면조사와 비슷하게 나옴


허마시엔셩, new retail, 

new retail전략은 2016년 10월 마윈 회장이 제시한 것으로, 온 오프라인의 벽을 허무는 onmi channel 소매와 스마트 물류를 융합한 미래형 소비유통 모델이며, ICT를 활용하여 공급망을 혁신하고 빅데이터 분석에 따라 소비자의 요구를 만족시킨다는 것이 핵심

특히 육류, 야채 등의 코너에서 정확한 수요 예측을 통해 당일 생산과 당일 판매를 함으로써 최고의 신선도를 추구하는 것이 특징

육류와 야채 등 신선식품의 수요를 높은 정확도로 예측하고 당일 판매의 신뢰성을 보장할 수 있는 것은 철저한 고객 데이터 분석과 상품 추적 시스템을 활용하고 있기 때문

회원제를 택함, 반드시 스마트폰 전용 앱이 깔려야 쇼핑가능, 알리페이를 사용해야함, 이를 통해 방문 내역, 구매 내역 데이터 축적

전체 고객 ID를 부여하고 모든 판매 기록을 사용자마다 분석하여서 POS(계산대) 데이터 분석보다 정확도 높일 수 있음

스마트폰 앱으로 상품 포장과 가격표에 붙어있는 바코드 및 QR코드를 읽으면 상품에 관한 설명을 얻을 수 있음(생산지, 수확일, 가공일, 매장까지의 배송내역 등) 심지어 물고기 한마리마다 QR코드가 붙어있음

구매 후 현장에서 즉석 조리가 가능, 고객이 해산물을 수조에서 꺼내 결제한 다음, 조리 카운터에서 조리법과 양념을 지정하면 매장 내 상주 요리사가 즉석에서 요리를 해옴, 이걸 grocery + restaurant = grocerant라 한다. (미국, 유럽, 중국에서 유행)

스마트폰으로 주문하고 배송 받는 것이 가능, 30분 내에 배송해줌, 매장에서 대략 3km 이내 거리인 경우, 앱으로 매장에 있는 상품을 주문하면 30분 이내에 받을 수 있으며, 주문이 들어가면 점원이 매장에서 상품을 선택하고 허마시엔셩의 오토바이 퀵서비스를 이용해 배송함

경쟁업체 7Fresh는 허마시엔셩과 유사하되, 차별성으로는 고객을 자동으로 따라다니는 무인 자율 주행 쇼핑 카트, 셀프 계산대에서 얼굴 인식 인증 결제 도입 등이 있음

showrooming족, 즉 매장에서는 상품만 체크하고 실제 구매는 인터넷에서 하는 사람들, 쇼루밍 족을 위해 매장에는 재고가 있지만 쇼핑몰 사이트에서는 품절인 상품이 있다면 그 사실이 가격표에 표시되게하여 낭패를 보지않게 해주며, 각 가격표는 온라인과 연동하여 온라인 쇼핑몰의 가격과 실시간 연동되어 있다.


유튜버들의 축제, 비드콘(VidCon)

유튜버는 동영상 UCC(User Created Contents) 사이트인 유튜브에서 인기를 얻고 있고 영향력이 있는 인플루언서(influencer)들을 총칭하는 말

2018년 축제에 어린이와 청소년, 그리고 여성참가자가 많음

주최하는 곳은 유튜브나 모회사인 구글이 아니라, 컨퍼런스 이름과 같은 비드콘이라는 기업이고 올해로 9번째 행사를 주최함


안내 로봇, 아이들의 집단 괴롭힘을 피할 방법 학습

아이들의 경우 로봇의 길을 비켜달란 부탁에 무시하거나 여러 명의 어린이가 로봇을 둘러싸고 발로 차거나 공을 던지는 등의 폭력적 행동을 보이기도 함

이를 해결하기 위해 아이들의 행동 패턴 및 폭력 행위 모델을 포함한 시뮬레이션 학습용 알고리즘 '회피 기동 시스템(Escape Maneuver System)을 개발함

알고리즘의 핵심은 폭력이 발생할 가능성이 높은 상황이라고 판단되면, 로봇이 원래의 경로를 변경하거나 목적지를 변경하도록 하는 것임(사람과 조우했을 때, 상호작용 시간, 인구 밀도, 1.4m 이하의 사람이 있는지 등을 감지하며, 위험이 감지될 경우 1.4m 이하의 사람들로부터 달아나 키가 큰 사람의 그룹이나 인구밀도가 높은 장소로 이동함)








'글쓰기 > 진행중' 카테고리의 다른 글

가볼만한 여행지 정리해두기  (0) 2018.10.30
Kaggle 입문  (0) 2018.10.29
운동일기  (0) 2018.10.15
영어정리  (0) 2018.07.08
좋았던 표현 모음  (0) 2014.08.25

날짜+영어표현

주말에 총정리

(내일은 켜자마자영단어에있는거 옮기기)


cortically

sensualism

phubbing

coital

assertive

supine

panacea

kindergartener

gossamer

meridian

voiceover

devolve

heist

dachshund

cynic

live a decadent life

make biased calls

swoon

humongous

arable

agnostic

pawn off

fine-grained

circumplex

latch

in hidsight

fete

fiddle

melt away

window pane

polysemy

invariably

syntactical

cold start

legend

granularity

factoid

multiple hops

prune

downstream

grid-search

out of the box

nil

hapax legomenon

gestapo

scaffold

mescaline

ad hoc

topical

leapfrog effect

tendril

tush

shook(shake)

cheek

drool

lightsaber

faint

mermaid

bang(앞머리)

jack o lantern(할로윈 호박)

I pity the fool(난 그 어리석은 놈을 동정하지(나에게 잘못한 그새끼 걸리면 뒈진다 류의 catchphrase))

I forgot my combination(combination은 열쇠 비밀번호)

late pass(초중고딩들 지각사유서)

killer handshake(악수할때 특이하게 하는 방법 중 하나)

electives(선택과목들)

emasculate(무기력하게 느끼게 만들다)

giggly(낄낄거리는)

imputation

futuristic

WBS(Work Breakdown Structure, 소프트웨어 공학 쪽 용어)

SOW(Statement of Work, Scope of Work)

IR(Investor Relations)

PR(Public Relations)

HIS(Hospital Information System)

EMR(Electronic Medical Record)

PHR(Personal Health Record)

replenishment

rosary

faint music

chit chat

dork

tantalize

kindred spirits

wrecks it for me

RV(recreational vehicle)

play dead

admission by that name

cog in a network

barrel of a gun

wasp

feisty

dysfunctional family

acrimonious

extubate

right wing extremist

huckleberry

cock a gun

splinter

leg up

sea change

use it or lose it

intrepid

collar

anaphora

fleece

surf and turf

snippet

wide berth

irons in the fire

bipolar

vaping
pecking order
up-and-coming
literary cottage
snot
antelope
gullet
foray
ostensibly


'글쓰기 > 진행중' 카테고리의 다른 글

가볼만한 여행지 정리해두기  (0) 2018.10.30
Kaggle 입문  (0) 2018.10.29
운동일기  (0) 2018.10.15
신기술들 요약  (0) 2018.07.09
좋았던 표현 모음  (0) 2014.08.25

잘 살고 있는지 체크할 수 있는 질문

1. 나의 본질적인 재능을 개발하면서 중요한 일에 시간을 썼는가?

2. 미래 세대를 위해 어떤 유산을 남겼는가?

3. 세속적인 세상을 초월했는가?

4. 사랑했는가?

 

예술의 기교는 사물을 '낯설게' 하고, 형식을 난해하게 하고, 지각에 소요되는 시간을 연장시키는 것이다. 왜냐하면 지각 과정을 그 자체로서 하나의 심미적 목적이기 때문이며, 따라서 되도록 연장되어야 한다.

(띄어쓰기를 없앤다거나 종성을 따로 쓴다는 등의 문법파괴, 혹은 역설적인 표현, 자연법칙과 어긋나는 표현, 공포스러운 상황 묘사 등)

 

있다고 믿는게 아니라, 없다는 걸 잊어버리는 거야

 

전문화한 특정 영역에만 관심을 가지지 말고 소프트웨어 전체 영역에 관심을 가질 때 새로운 시야, 창의적인 접근 방식이 생기면서 즐거움을 느낄 수 있을 것으로 생각한다.

-돈을 쫓기보다는 일을 통해 자신의 존엄성과 자유를 찾으려는 노력을 해야한다.

-인간의 존엄성과 자유를 찾으려면 소비 습관을 개선해 자본주의의 노예가 되지 않도록 해야 한다.

-기계화와 관련해서는 첫번째 불교적 관점에 해당하는 "사람의 기술과 능력을 향상시키는 기계화"에 초점을 맞춘다. 

 

일의 전체 맥락을 늘 염두에 두고 자신의 행동이 전체에 미칠 영향을 이해한다면, 아무리 사소한 직업이라도 세상을 전보다 살 만한 곳으로 탈바꿈시키는 인상적 변화를 이끌어낼 수 있다.

 

목표는 마지막 목적지가 아니라 첫걸음 그 자체가 되어야 한다.

 

SLiPP 스터디는 다음과 같은 리듬으로 운영할 수 있는 수준이 되었다.

-스터디는 상반기, 하반기로 나누어 진행한다. 각 반기의 기수는 2,3개의 주제로 진행한다.

-다음 스터디에 참여하고 싶은 사람은 자신이 하고 싶은 주제를 반드시 하나 이상 제출해야 한다. 만약 제출하지 않으면 스터디 참여 기회를 박탈한다.

-각자가 제출한 스터디 주제에 모든 사람들이 투표해 4,5개의 후보를 선정한다.

-선정된 4,5개의 주제 중 최종 주제를 선정하기 위해 오프라인 미팅을 가진다. 주제를 제안한 사람이 자신의 주제에 대해 발표하고 다시 최종 투표를 통해 2,3개의 주제를 선정한다. 각 주제의 리더는 주제를 제안한 사람이 한다.

-주제를 선정한 후 스터디원에 결원이 생기면 스터디원을 모집한다.

-스터디원을 모집할 때는 나이, 성별, 경력, 지원 동기 등을 받아 기존 스터디원 전체가 투표에 참여해 스터디원을 선발한다.

스터디를 시작한 이후의 과정은 다음과 같다.

-첫번째 모임은 스터디에 대한 OT, 뒷풀이 모임을 가진다.

-1~4차 스터디는 각 주제별로 진행한다. 

-5차 스터디는 각 주제별 스터디원간의 친목을 다지기 위해 중간 세미나와 뒷풀이를 진행한다.

-6~9차 스터디는 각 주제별로 진행한다.

-스터디를 마무리하고 전체 MT를 1박 2일로 다녀온다.

-다시 주제 선정부터 신입 스터디원 모집을 시작한다.

위와 같은 과정으로 6개월의 과정을 마무리한다.

 

그런데 대부분의 어머니는 아기 울음소리를 그다지 신경에 거슬려 하지 않습니다. 오히려 울음소리라기보다는 애타게 엄마를 찾으며 어리광부리는 사랑의 메시지라고 받아들입니다.

 

누군가 빈정대도 '나는 내 길을 가겠다'는 태도로 씩씩하게 나아가는 자세. 이런 둔감력이야말로 창조적이고 획기적인 일을 성공시키는 원동력이 됩니다.

 

질투하는 사람은 당하는 사람보다 훨씬 괴롭고 슬플 테니까요.

 

만일 네가 꿈을 갖더라도
그 꿈의 노예가 되지 않을 수 있다면
또한 네가 어떤 생각을 갖더라도
그 생각이 유일한 목표가 되지 않게 할 수 있다면 

 

정확도는 파워를, 타이밍은 스피드를 압도한다. 

 

(인공지능개발이야기 중)

프로그래밍은 중간 목적을 설계하기 어렵다. 인간은 무언가를 보면 의미를 느끼고 이야기로 이해한다는 것, 그것은 인간의 가능성이자 한계이다. 쇼기(일본 장기)를 둘 때 인간은 상대방의 의미(이 수를 둔 이유), 이야기를 이해하려고 한다.

...

지성은 인간으로 하여금 인공지능에 맞먹는 퍼포먼스를 발휘하게 하기도 하지만, 한편으로는 의미나 이야기에서 벗어나지 못하게 하는 제약으로 작용하기도 한다. 한편 인공지능은 의미나 이야기에서 자유롭기에 인간을 능가할 수는 있지만 목적을 설계한다는 의미의 지성은 지니고 있지 않다.

 

 

첫째 지나치게 높은 목표를 설정하지 말고 과중한 책임감을 피하라.
둘째 자신이 해야 할 일을 나눠 순번을 정하고 할 수 있는 것만큼만 한다.
셋째 일이나 사람에 대해 너무 큰 기대를 갖지 마라.
넷째 혼자 지내지 말고 가능하면 다른 사람들과 함께 지내도록 노력한다.
다섯째 기분이 좋아지는 활동에 참가하도록 노력하고 어떤 일이든 결과에 초조해 하지마라.
여섯째 우울한 상태에서는 중요한 결정을 연기하는 것이 좋다.
일곱째 조급해하지 말고 자신을 스스로 비난하지 마라.
여덟째 부정적인 생각을 그대로 받아들이지 마라.
아홉째 남의 도움을 받는 것을 부끄럽게 생각하지 마라.

 

지적 재능은 후천적이다. 나이가 몇이든, 문제를 해결하려는 습관적인 노력만이 해결책이다.

 

의도적인 도전, 응전을 계속하고 성공적인 경험을 반복하다보면 불연속적으로 성장한다. 행복도와 몰입을 하는 능력도

 

1초도 쉬지않고 문제를 해결하기 위해 생각하고 실천하라. 10분이상 생각해보고 안되면 적어놓고 자투리 시간을 활용하라. 걷거나 다른 기계적인 일을 할 때

 

결과는 내가 영향을 줄 수 있는 부분이 아니다. 과정만이 내가 정할 수 있다. 이러한 생각이 몰입을 하게 도와준다.

 

공부가 수단인 학생은 공부를 오래 하지 못한다. 공부를 하는 자체가 순수한 동기여야 공부하면서 겪는 많은 난관을 해결하는 가장 좋은 필살기이다.

 

영화 행복을 찾아서, 집이 없어도, 성실하며 대하는 모든 사람에게 친절하며, 인턴쉽을 성공적으로 마쳤다. 인생에 되는게 없다는 점이, 스캐너를 도둑맞거나(히피), 잃어버리거나(지하철 타임머신), 와이프 가출, 낮에는 전화하고 사람을 만나고, 밤에는 책을 놓질 않았다.

 

영화 언애듀케이션, 누구 덕으로 바뀌는 건 망상에 가깝다. 인생에 지름길은 없다. 그러므로 성실하게...그리고 정직하게.

 

하기 싫어도 하자. 그래야할 때가 다시 왔다.

 

운동능력에 대한 내 생각은 바뀌었다. 근육을 키우면 그것을 평생을 유지(물론 조금은 빠지겠지만)하는 것으로 생각했었다. 지금은 달라졌다. 운동 능력은 현재형이다. 예전에 얼마나 했든은 중요하지 않다. 지금 얼마나 하냐가 중요하며 그 능력을 현재에 계속 지켜나가는 것이 능력이다.

 

대학원 생활 셋째 해는 이처럼 내 나름대로 본격적인 연구를 시작한 한 해였다. 내 역량이 아직 미숙하여 연구에서 양성적인 성과는 거두지 못 하였으나 음성적인 발전은 있었다. 무슨 뜻이냐 하며는 연구문제에 대한 한 접근방법이 모처럼 떠오르면 처음에는 그 방법에서 무엇이 틀렸는지 깨닫는데 오랜 시간이 걸렸으나, 세월이 흐를수록 내 접근방법에 무슨 오류가 있는지 찾아 내는 시간이 짧아져 갔다는 뜻이다.

 

서두르지 않되 바른 길로 진득하게 해야한다. 지금 내 마음은 좌절감과 집중을 잃어버린 상태에서 더욱이 서둘러서 집중을 하지 못하거나, 집중을 하는 날이 있어도 오래가질 못하고 있다. 서두르지 말자.

 

RandomGraph책 1권을 진득하게 보자. 관련된 다른 책도 참고하긴 하되 1권을 진득하게 봐놔야 한다. 다른 것들을 살펴보기 전에, 나만이 좋아하는 것을 잘해야한다.

 

큰 의미가 없는 숙제는 하지말자. 지금은 그런 것에 신경쓸 때는 지났다.

 

결과가 안나와서 집중이 떨어지고 기피하게 된 부분은 사실 여러가지가 있다. 텝스 성적도 그렇고 연구도 그렇다. 이것을 극복하는 것은 사실 긍정적인 마인드보다는 결과다. 다시 길게 시간을 잡고 집중하여 이겨내자. 인생에서 이겨내야할 부분이다.

 

박사 년차가 찰수록 공부에 대한 집중은 떨어질 수 있다. 바로 결과가 안나오면 말이다. 지도교수님은 그 점을 걱정하고 있다.

 

할머니가 돌아가셨다. 멋진 모습을 하지 못해 찾아뵙는 것을 미뤄왔던 것 같다. 시간은 기다려주지 않는다. 멋진 모습을 해서 사람들을 자주 만나도록 하자.

 

작은 외삼촌은 수학 박사는 진짜 박사라며, 자기가 힘써 줄 수 있는 분야면 써주겠는데 수학은 그렇지 못해서 안타깝다 하셨다. 그렇다 수학 박사가 진짜 박사인 것은 모두다 알고 있다.

 

공부를 열심히하고 너무 잠올 때 운동하고 잠자는 버릇을 길러야 한다. 운동하고 공부하는 것은 힘들다. 자기 전에 먹는 버릇을 버리기 힘들다. 안먹으면 잠이 안오기 때문이다. 운동을 하고 적당히 단백질을 먹고 자는 버릇을 가지자.

 

노트필기의 단점, 적는 데에만 몰입을 하는 경우, 그 적는 내용을 기억하고 행동에 실천하려는 의지를 잃어버린다. 적음으로써 알고 있다고 생각하기 때문이다.

 

피아노를 실패한 이유가 바로 "배운 게 피아노뿐이라서."라는 말을 아무렇지 않게 하고 다녔던 나에게 있었던 것처럼, 실패와 성공의 가장 큰 계끼는 모두 "생각"과 "말"이라는 같은 이유에서 시작되는 게 아닐까 싶다. 인생은 생각대로 살게 된다는 것. 그렇기에 과거가 아닌 오늘을 살아가야 한다는 것. 이렇게 만들어진 '생각대로 살게 되는 마을'이 내가 존재하는 곳이라는 것. 그게 내 작은 깨달음이었다. 

 

지금 가고 있는 길이 아니라고 느껴질 때, 무언가 잘못되었다고 생각될 때, 그러나 되돌리기에 너무 늦었다고 생각될 때, 과감하게 포기하자. 때로는 포기하는 것도 용기다. 

 

늦지 않았으니 후회하는 일 지금 당장이라도 그만하세요. 

 

뭐든지 즐거운 마음으로 하려고 노력해보세요. 우리가 가장 즐거워하는 일을 하면 밤을 새우면서도 할 수 있어요. 하기 싫은 일도 억지로 즐겁다, 즐겁다, 마음속으로 주문을 걸어보세요. 나도 모르게 정말 그 일이 즐거워질 거예요. 

 

내가 하고자 하는 것에 집중하고, 내 자신에게 집중하자. 적어도 내가 그 분야의 최고가 되기까지 다른 사람을 신경 쓰지 말자. 

 

시간을 엄격하게 구분하세요. 놀 때는 노는 데만 집중하세요. 반대로, 공부할 때는 그것에만 매진하세요. 인생에는 무엇이든 해야 할 시기가 있고, 하루하루에도 그때 해야 할 일이 있습니다. 

 

꿈과 사랑은 쉽게 포기하면서 왜 술, 담배는 포기하지 못하나요? 지금 지키세요. 내일로 미루지 말고, 지금 당장 지키세요.

 

오늘 단 하루 열심히 노력해보자.

 

지금까지 잘난 모습을 한 번도 보여주지 못한 나를 원망하며 복수라는 이름으로 "난 꼭 성공한다."라는 말로 성공을 목적에 두시지는 않았나요? 성공은 목적이 아니라 결과입니다. 나 자신에게 보여주고 싶은 성공을 꿈꾸세요. 나 자신에게 보여주고 싶은 인생을 사세요.

 

100번이 넘는 오디션 후에 '나름대로 열심히 했는데...'하고 생각만 하다 '나름대로'가 빠져야 한다는 걸 깨달았어요.

 

무작정 되지 않는다고 '될 대로 되겠지.' 하면서 목표 없이 열심히 하고 있는 자신의 모습에 위안 삼지 마세요.

 

안타깝지만 열심히만 한다고 해서 '노력'이 되는 건 아닙니다. 목표를 위해 내가 할 수 있는 방법이 무엇이 있는지 생각하세요. '이게 아니면 죽겠다.'라는 간절함 없이는 무엇도 되지 않아요.

 

가끔은 눈을 감고 상상해보세요. 지금은 아니지만, 나중에는 꼭 할 거야, 될 거라고, 그 모습을 상상해보면 세상을 다 가지고 뿌듯한 기분일 거예요.

 

나를 먼저 사랑해야 다른 사람도 나를 사랑합니다.

 

내게 실망감을 준 사람을 다시 받아주는 것은 밑 빠진 독에 물 붓기와 같다.

 

나는 그 사람이 좋지만, 그 사람이 나를 싫어한다면, 연락했는데 받지도 않고, 시간이 흘러도 연락이 없다면, 소중하게 여겼지만, 나를 가볍게 생각한다면, 단호하게, 냉정하게 잘라버리자. 나를 힘들게 하는 사람까지 안고 가기엔 내 그릇은 너무나도 작다. 자존심은 이럴 때 쓰라고 있는 것. 나를 위해서.

 

사람의 마음은 시소와 같아서 한쪽이 너무 커지면 반대쪽은 나를 내려다보기 마련이다. 그리곤 생각한다. '언제나 저렇게 큰 마음이겠지.' '항상 나보다 더 큰 무게로 날 올려주겠지.' 하지만 언제든 마음만 먹으면 내려버릴 수 있는 쪽은 발이 땅에 닿아 있는 사람이다.

 

세상에는 칼로 마음을 찌르는 도둑이 있는 반면에 마음을 치유해주는 의사도 있답니다.

 

부모님이 우리의 어린 시절을 꾸며주셨으니 우리는 부모님의 말년을 아름답게 꾸며드려야 한다.

 

가까운 사람일수록 더 잘해주세요. 가깝다는 이유로 짜증내고, 화내고, 투정부리는 것 같아요. '내가 이렇게 행동해도 이해해주겠지.' 전혀 그렇지 않아요. 정말 가까운 사람이라면 다른 사람보다 한 번 더 생각하고 행동하세요.

 

누가 됐든 상대에게 연락이 올 때면 보는 순간 바로 답해주세요. 귀찮은 사람이라서, 중요한 내용 아니라서 연락이 온 것을 알고 있음에도 무시할 때 느끼는 감정들. 어떤 기분인지 정말 말로 표현할 수 없을 정도로 마음이 불편합니다. 상대도 마찬가지입니다. 아주 편한 사람이더라도, 하던 일을 멈추고 매듭을 지으세요.

 

인간관계는 고무줄과 같다. 당겨서 멀어지면 끊어지기 마련이고 놓으면 가까이 다가오기 마련이다. 너무 당기지도, 너무 놓지도 말기를

 

실수는 부주의가 아니라 잘하고 싶은 마음에서 생깁니다. 내가 실수 했을 때 인정하고 받아들이세요. 너무 자책하지 마세요. 실수는 필요합니다. 성장하기 위한 과정이니까요.

 

내가 최악일 때 곁에 없었다면 내가 최고일 때 함께할 자격은 없습니다. 

 

사람들은 누구나 남에게 노력을 칭찬받고 인정받고 싶어 합니다. 안 좋게 평가를 해주는 것보다 그들의 성의와 노력을 봐서라도 조금 너그럽게 평가해주세요. 더 노력하고 인정받고 싶어 할 수 있게 좌절은 주지 마세요. 

 

행여 험담을 하는 사람이 있다면 멀리하고 피하세요. 그 사람의 눈에 나의 잘못이 보인다면 그는 또 다른 누군가에게 나를 험담할 사람이니까요. 

 

집착해줄 때가 가장 좋은 때다. 이해해준다는 건 조금씩 포기한다는 거다. 

 

연인 사이가 가장 소홀해질 때는 상대의 연락이 왔음에도 나중에 답장해도 되겠지, 하고 넘길 때다. 그 시작이 최악의 결과를 만들어낸다. 

 

사랑의 기본은 연락입니다. 아무리 바빠도 짧은 전화 한 통, 문자 한 통 남길 시간은 있습니다.

 

내가 연락을 안 하면 절대로 연락 안 할 사람이에요. 자존심도 버려가면서 최선을 다했으면 여기까지만 하고 이제 제발 그만하세요. 

 

한 사람만 바라보고 좋아해주는 사람을 놓치지 마세요. 내 생애 가장 큰 후회가 될 수도 있어요. 정말 나를 좋아했던 사람이 이제는 다른 사람을 좋아하는 모습을 보면 허전함과 섭섭함을 만나게 될 거예요. 외모, 돈, 성격은 나중에 따지고 일단 만나보세요. 그때 후회해도 늦지 않으니까요. 누가 알아요? 최고의 인연일지. 

 

외로운 두 사람이 만나 사랑을 시작하게 되면 서로의 외로움만 채워주고 길게 사랑을 할 수가 없죠. 사랑은 외로움으로 시작하는 게 아니에요. 사랑의 시작은 설렘에서 비롯됩니다. 

 

해야 될지 안 해야 될지, 고민으로 마음이 심란하다면 그냥 하지 마세요. 정말로 하고 싶었다면 고민조차 하지 않고 바로 했을 겁니다.

 

어릴 때는 나보다 중요한 사람이 없고, 나이 들면 나만큼 대단한 사람이 없으며,
늙고 나면 나보다 더 못한 사람이 없다.
돈에 맞춰 일하면 직업이고, 돈을 넘어 일하면 소명이다.
직업으로 일하면 월급을 받고, 소명으로 일하면 선물을 받는다.
칭찬에 익숙하면 비난에 마음이 흔들리고, 대접에 익숙하면 푸대접에 마음이 상한다.
문제는 익숙해져서 길들여진 내 마음이다.
집은 좁아도 같이 살 수 있지만, 사람 속이 좁으면 같이 못 산다.
내 힘으로 할 수 없는 일에 도전하지 않으면, 내 힘으로 갈 수 없는 곳에 이를 수 없다.
사실 나를 넘어서야 이곳을 떠나고, 나를 이겨내야 그곳에 이른다.
갈 만큼 갔다고 생각하는 곳에서 얼마나 더 갈 수 있는지 아무도 모르고, 참을 만큼 참았다고 생각하는 곳에서 얼마나 더 참을 수 있는지 누구도 모른다.
지옥을 만드는 방법은 간단하다.
가까이 있는 사람을 미워하면 된다.
천국을 만드는 방법도 간단하다.
가까이 있는 사람을 사랑하면 된다.
모든 것이 다 가까이에서 시작된다.
상처를 받을 것인지 말 것인지 내가 결정한다.
또 상처를 키울 것인지 말 것인지도 내가 결정한다.
그 사람 행동은 어쩔 수 없지만 반응은 언제나 내 몫이다.
산고를 겪어야 새 생명이 태어나고, 꽃샘추위를 겪어야 봄이 오며, 어둠이 지나야 새벽이 온다.
거칠게 말할수록 거칠어지고, 음란하게 말할수록 음란해지며, 사납게 말할수록 사나워진다.
결국 모든 것이 나로부터 시작되는 것이다.
나를 다스려야 뜻을 이룬다.
모든것은 내 자신에 달려 있다. 

 

나는 연애를 하는 동안 책에서 봤던 '성인'이 되고 싶었는 지도 모른다. 마찰 없이 모든 문제를 온화하고 지혜롭게 헤쳐나가는. 그렇게 지혜로운 아녀자 신사임당 같은 연애를 하던 어느 날, 내 생일날 약속에 잠자다 늦은(+빈손으로 온)남친을 '이해'하고 화해하고 왔다는 내게 엄마는 이렇게 말했다.

"너 행복하려고 연애하지, 봉사하려고 연애하니?"

...

나는 점차 신사임당 연기를 포기하기로 마음을 먹었다. '맞는 건 맞다, 아닌 건 아니다'라고 말하기 시작했고, 상대의 기분이 상할까 눈치 보는 일을 그만두었다. 원래부터 애교가 없이 태어난 걸 자책하는 대신 그냥 내가 가진 유쾌함을 선택했다. 그리고 무엇보다 그냥 내가 하고 싶은 일을 최우선 순위에 두었다. 그 결과, 난 1년이 넘도록 행복하게 솔로로 남아있을 수 있었다.

 

남에게 착한 일을 하면, 어렸을 때부터 엄마는 나에게 '잘했다'라는 말 대신 '고맙다'라고 했다. 마치, 엄마가 그 상대가 된 것처럼, 남을 만나면, 그 사람 속에 꼭 엄마가 보인다.

 

네가 복수를 안 하는 것은 그보다 약해서가 아니라 그보다 용감하기 때문이다.

 

엄마는 아빠의 병수발을 몇년 째... 아들은 뭘 할 수 있을까? 그냥 엄마 생각하지말고 자기 나름 인생을 살기위해 떠나는 것이야말로 답이 아닐까? 엄마가 아들이 그렇게 하길 바라지 않을까?

 

이기적이게 사는 것이 이타적인 것이다. 죽은 사람을 얼른 보내고 행복하게 살자. ... "엄마 오늘은 엄마 잊으려고 운동도하고 좋은 옷도 입고 맛있는 것도 먹었습니다."

 

인간 관계의 역량을 늘리는 연습으로 생각해야합니다. 결과에만 집중하니까 실패가 상처로 남는 겁니다. 연습으로 생각해야 마음에 부담이 없습니다. 

 

내가 국민학생때.. 벌써 20년 전이네

학교 자연시간 과제로 화분에 꽃씨를 심고 키우는 숙제가 있었다.

난 무엇을 심을까 고민하다가.. 수선화라는 이름이 예뻐 보여서 수선화 씨앗을 심었지..

어린마음에 꽃을 피워보겠다는 일념으로 정성스레 물을 주고 햇빛이 잘드는 자리에 항상 올려놓았지..

그러기를 한참.. 줄기는 꽤 자라나는대 꽃이 필 기미는 안보이고..

점점 지쳐가던 난.. 이내 물주기도 게을리 하고 그러다 나중엔 신경도 안쓰고 구석에 처박아 두었다.

며칠이 흘렀나.. 난 그 화분을 보고 깜짝 놀랐지..

물을 주지 않아서 화분속 흙은 심한 가뭄이 든 땅처럼 딱딱히 굳어있고 여기저기 갈라져있었는대

그 황폐한 흙 위에 아름답지만 위풍당당하게 피어있는 한송이의 노란 수선화...

햇빛이 드는 창가에서 바라본 그 수선화는 금빛으로 빛났고..

아름답지만.. 강해보였다...

그자태가 너무 아름다워... 혼이 나가서 한참을 쳐다보던 기억이 난다...

스스로 일어나서 그 아름다움을 피워낸 한송이의 노란 수선화...

너가 노란 원피스를 입고 온 그날..

넌 수선화였다......  

 

 

자기 프레임을 과도하게 쓰다 보면 ‘나는 남들을 잘 알고 있는데 남들은 나를 잘 모른다’는 착각을 하게 된다.
치우침 없이 객관적으로 다른 사람을 바라보지만, 다른사람들은 자신을 있는 그대로 보지 않고 끊임없이 오해한다고 생각한다.
나는 타인에 의해 끊임없이 오해받고 왜곡당하고 있지만 ‘나는 너를 잘 알고 있다’고 믿는다.
이런 오해는 집단 수준으로 확대된다. 우리 집단, 우리 민족은 다른 민족에 의해 왜곡되어 그려지고 않지만,
우리는 그들을 제대로 알고 있다고 믿는 착각을 불러일으킨다.
"일본 사람들은 우리 민족을 잘 몰라", "도대체 브리짓 바르도가 우리 문화를 얼마나 안다고 우릴 야만인으로 규정하는가?"라고
분개하지만 우리가 다른 문화에 대해 얼마나 오해하고 있는지에 대해서는 무감각하다.
‘나는 너를 알지만 너는 나를 잘 모른다’라는 생각의 뿌리를 좀더 깊게 파헤쳐보기 위해 저자 연구팀은
다음과 같은 연구를 수행했다.
이 연구에 참가한 사람들에게 두 가지 질문을 던졌다.
첫 번째 질문은, 처음 만난 사람과 10번을 만날 기회가 주워졌을 때 몇 번 정도 만나면 그 상대방을 정확하게 파악할 수
있다고 생각하는지 물었다.
반대로 그 상대방이 자신을 정확하게 이해하기 위해서는, 자신과 몇 번이나 만나야 한다고 생각하는지도 물었다.
두 사람 모두 초면이었기 때문에 서로에 대한 사전 지식이 전혀 없는 상황이었다. 응답을 분석한 결과, 평균적으로 사람들은
상대방이 자신을 이해하는 데 필요한 시간보다, 자신이 상대방을 이해하는 데 필요한 시간이 적게 걸린다고 보고했다.
다시 말해 ‘나’ 의 입장에서, 타인은 짧은 시간에도 파악할 수 있는 ‘단순한 존재’이지만 나 자신은 그 누구에 의해서도
쉽게 파악될 수 없는, 그래서 오랜 시간을 들여야 제대로 이해할 수 있는 ‘복잡한 존재’로 보고 있다는 애기다.
나는 한눈에 척 보면 너를 알지만, 너는 척 봐서는 나를 모른다는 생각이 깊게 깔려 있는 것이다.
아마 어떤 사람이 단5분 만에 당신이 어떤 사람이라고 단정한다면 무척 화가 날 것이다.
그런대도 당신은 5분이면 충분이 다른 사람을 판단할 수 있다고 자신한다.
사람들은 대부분 다른 사람의 내면이 겉으로 잘 드러난다고 믿기 때문에, 겉으로 보이는 특정적인 몇몇 행동을 보면
그 사람을 이해해할 수 있다고 생각한다.
걷는 모습, 머리 스타일, 옷입는 스타일, 목소리 크기, 글씨체, 좋아하는 색깔, 자주 듣는 음악,,,이런 식의 단서들이면 충분히
그 사람이 어떤 사람인지 파악할 수 있다고 믿는다.
그러다 보니 글씨를 조그맣게 쓰는 사람은 성격도 소심할 거라고 지레 짐작한다든지, 발라드를 좋아하는 사람은 창의성이 없다고
믿는다든지, 심지어 라면을 먹을 때 면을 먼저 먹는지 국물을 먼저 먹는지를 보면 그 사람의 성격 을 알수 있다는 등의
황당한 주장도 나오게 된다.
만약 애인이 "넌 혈액형이 B형이라서 내 결혼 상대로는적합하지 않아"라고 말한다면 어떨까? 또 "당신은 너무 소심해"라고
말하는 상대방에게 왜 그렇게 생각하느냐고 물었더니, "넌 글씨를 너무 작게 써!"라는 대답이 돌아 온다면? 편안한 자세로
앉아서 감상한다는 이유로 상사가 더 이상 창의적은 일을 맡기지 않는다면? 당신이 이런 상황을 겪는다면 분명 어이없어 하면
자신이 제대로 평가받지 못한 데 대해 발끈할 것이다.
"어떻게 감히 그런 사소한 이유를 가지고 나의 심오한 내면을 판단할 수 있단 말인가!"하고 말이다.
그러니 오해하지 말자.
"나는 너를 알지만 너는 나를 모름다"는 생각은 자기중심성이 만들어낸 착각이고 미신일 뿐이다.
정답은 ‘나도 너를 모르고 너도 나를 모른다’거나 ‘나는 네가 나를 아는 정도만 너를 안다’이다.
‘예수님도 고향 사람들로부터 인정받지 못했어’라는 멋진 비유까지 들어가면서 ‘난 지금 오해받고 있다’고 착각하지 마라,
더 큰 오해는 ‘내가 남을 알고 있다’는 바로 그것이다. 


- 최인철 '프레임'

 

 

누군가 내게
"당신은 그를 얼마나 사랑하나요"
하고 묻는다면
나는 외면하며
"손톱만큼요"
라고 할 것이다.

 

하지만 돌아서서는,
평생 자라나고야 마는
내 손톱을 보고
마음이 저려
펑펑 울지도 모른다

 

왕구슬 - 손톱깎이

 

 

산은 좀체 안개 속에서
빠져나오지 못했다.
나도 그 산에 갇혀
꼼짝할 수 없었다.

그 해 여름 내 사랑은
짙은 안개 속처럼
참 난감해서 더 절절했다.
절절 속 끓이며
안으로만 우는 안개처럼
남몰래 많이 울기도 했다.


이제야 하는 얘기다.


오인태 - 난감한 사랑 

 

뭔가가 시작되고 뭔가가 끝난다.
시작은 대체로 알겠는데 끝은 대체로 모른다.


끝났구나, 했는데
또 시작되기도 하고

끝이 아니구나, 했는데
그게 끝일 수도 있다.


아주 오랜 세월이 흐른 후
아, 그게 정말 끝이었구나,
알게 될 때도 있다.

 

그때가 가장 슬프다.

 

황경신 - 그때가 가장 슬프다
 

 

이렇듯 흐린 날엔 누가
문 앞에 와서
내 이름을 불러주면 좋겠다

보고 싶다고 꽃나무 아래라고
술 마시다가
목소리 보내오면 좋겠다

난리 난 듯 온 천지가 꽃이라도
아직은 니가 더 이쁘다고
거짓말도 해 주면 좋겠다

구양숙 - 봄날은 간다 

 

못난 글 알아보기-말로 소리내어 읽어보기 

 

말과 글 중에는 말이 먼저다. 말로 해서 좋아야 잘 쓴 글이다. ... 청중의 마음을 움직이지 못하면 노래를 잘해도 의미가 없다는 말이다. 글쓰기도 노래와 다르지 않다. 독자의 공감을 얻고 마음을 움직이는 글이 잘 쓴 글이다. 많은 지식과 멋진 어휘, 화려한 문장을 자랑한다고 해서 훌륭한 글이 되는 게 아니다. 독자가 편하게 읽고 쉽게 이해할 수 있도록 쓰는 것이 기본이다. 

 

행복한 가정은 다 비슷하지만 불행한 가정은 저마다 이유가 다르다.

못난 글은 다 비슷하지만 훌륭한 글은 저마다 이유가 다르다. 

 

글쓰기를 위한 전략적 독서에 적합한 책을 경험주의적으로 고른 목록(by 유시민작가) 중 흥미가는 것들

? 특권계급의 집단적 이기심이 만들어내는 불의를 대화와 타협을 통해 평화적으로 해결할 수 있는가? 어떤 방법으로 우리는 개인의 도덕과 사회의 정의를 함께 실현할 수 있을까?

모든 집단은 자기중심적이고 이기적인가? 구성원들이 개별적으로는 이타적인데도 집단으로 뭉치면 이기적으로 행동하는 이유는 무엇인가? 특권계급의 집단적 이기심이 만들어내는 불의를 대화와 타협을 통해 평화적으로 해결할 수 있는가? 어떤 방법으로 우리는 개인의 도덕과 사회의 정의를 함께 실현할 수 있을까?

-침묵의 봄, 레이첼 카슨

화학살충제와 제초제로 해충과 잡초를 박멸할 수 있는가? 만약 성공해서 공춘과 잡초가 완전히 사라진다면 좋은 일인가? 인간이 살아가는 데 아무 문제가 없을 것인가? 생태계의 다양성과 균형을 유지하면서 해충과 잡초를 제어할 수 있는 방법은 없는가?

-만들어진 신, 리처드 도킨스

우주와 생명은 누가 만들었나, 스스로 태어났나? 신이 인간을 창조했는가, 아니면 인간이 신을 창조했는가? 만약 신이 존재한다면 그것을 어떻게 증명할 수 있으며, 인간이 신을 만들었다면 그 이유는 무엇인가? 우리는 종교의 도움 없이도 삶에 필요한 도덕을 세울 수 있는가? 신이 있는 세상과 없는 세상 가운데 어느 쪽이 더 희망적인가?

-이기적 유전자, 리처드 도킨스

다윈의 진화론은 생존경쟁과 자연선택을 주장한다. 자연선택과 생존경쟁은 어떤 차원에서 이루어지는가? 집단인가, 개체인가, 유전자인가? 인간을 유전자가 창조한 생존기계라고 하는 것은 인간의 존엄성을 부정하는 이론인가? 이기적 유전자의 생존기계인 인간이 이타적으로 행동하는 이유는 무엇인가?

-다른 의견을 가질 권리, 슈체판 츠바이크

인간이 삶과 우주의 궁극적 진리를 알 수 있을까? 절대 진리를 안다고 확신하는 어떤 사람이 권력의 힘으로 그것을 만인에게 강요할 경우 어떤 일이 벌어질까? 그 귀결이 자유와 다양성, 이성과 인권과 생명력을 짓누르는 공포정치라면, 그런 위험을 피하는 방법은 무엇인가?

-권력이동, 앨빈 토플러

권력의 원천은 무엇이며, 그것은 역사적으로 어떻게 변화해왔는가? 권력의 원천이 폭력에서 부로, 다시 부에서 지식으로 이동해왔다면 폭력과 부에서 지식으로 넘어가는 21세기 권력이동은 어떤 양상으로 전개될 것인가? 권력을 통제할 미래의 지식소유자들은 어떤 모습을 하고 있을까?

-소유냐 삶이냐, 에리히 프롬

재산, 지식, 권력을 소유하면 삶이 행복하고 의미를 가지게 될까? 만약 그렇지 않다면 어디서 삶의 의미를 찾을 수 있을까? 인간은 소유를 넘어 창조와 나눔에서 존재의 기쁨을 얻도록 스스로를 변혁할 수 있을까? 만약 가능하다면 어떤 방법이 있을까?

 

 

나는 밤하늘의 별과 내 몸이 같은 물질로 이루어져 있다는 사실을 알고 큰 위로를 받았다. 내 몸을 구성하는 물질은 그 무엇도 사라지지 않는다고 생각하니 삶이 덜 외롭고 덜 허무해 보였다. 

 

인간 사회에서 누구든, 개인이든 집단이든, 다른 사람의 행동의 자유를 침해할 수 있는 경우는 오직 한 가지, 자기 보호를 위해 필요할 때뿐이다.  

 

논증의 기술을 가르치는 책도 그와 비슷한 면이 있다. ... 논증의 기술을 가르치는 책은 글을 어느 정도 잘 쓰게 된 후에 가볍게 읽어보면 도움이 된다. 그러나 독서량이 적은 사람은 논증의 기술을 배워봐야 힘만 들 뿐 효과는 없다. 기초 체력이 허약한 사람이 축구 드리블 기술을 배우는 것이나 마찬가지다. 

 

어린이는 흥미를 느끼는 책을 마음 가는 대로 읽으면 된다. 특별한 도서 목록이 필요 없다. 하지만 뇌가 거의 다 성장해 지적 능력이 성인 수준으로 올라선 고등학생부터는 적절한 도서 목록이 있어야 한다. 그렇다면 어떤 책을 읽어야 할까? 글쓰기에 도움이 되는 책을 고르는 기준은 세 가지로 요약할 수 있다. 첫째는 인간, 사회, 문화, 역사, 생명, 자연, 우주를 이해하는 데 꼭 필요한 개념과 지식을 담은 책이다. 이런 책을 읽어야 글을 쓰는 데 꼭 필요한 지식과 어휘를 배울 수 있으며 독해력을 빠르게 개선할 수 있다. 둘째는 정확하고 바른 문장을 구사한 책이다. 이런 책을 읽어야 자기의 생각을 효과적이고 아름답게 표현하는 문장 구사 능력을 키울 수 있다. 셋째는 지적 긴장과 흥미를 일으키는 책이다. 이런 책이라야 즐겁게 읽을 수 있고 논리의 힘과 멋을 느낄 수 있다. 좋은 문장에 훌륭한 내용이 담긴 책을 즐거운 마음으로 읽으면 지식과 어휘와 문장과 논리 구사 능력을 한꺼번에 얻게 된다. 이런 책은 친구로 만드는 게 좋다. 친구는 오랜 세월 좋은 일은 함께 즐기고 아픔은 서로 나누며 자주 어울려야 친구다운 친구다. 어떤 책과 친구가 되려면 한 번 읽고 말 것이 아니라 여러 번 읽어야 한다. 시간이 들지만 손으로 베껴 쓰는 것도 괜찮은 방법이다. 그런 책 목록을 제안하기에 앞서 우선 세권을 소개한다. <토지>와 <자유론> 그리고 <코스모스>다. 이 책들은 두세 번이 아니라 열번 정도 읽어보기를 권한다.

 

텍스트는 내용을 이해하는 것을 넘어 문제점과 한계까지 탐색하면서 읽어야 한다. 한걸음 더 나아가면 그 문제점과 한계가 어디서 왔는지도 추론해볼 수 있다. 그렇게 하려면 책을 읽을 때 저자가 어떤 사람이며 무슨 일을 하는지 알아보는 게 도움이 된다. 임재춘 선생은 과학기술부 원자력실장을 지낸 핵발전전문가이며 책날개의 저자 소개와 서문에서 그런 이력을 명확하게 밝히고 있다. 그는 핵발전으로 화력발전을 대체하는 것이 경제적 효율성도 높고 지구 환경을 보호하는 데도 더 낫다는 확신을 바탕으로 텍스트를 썼다. 그러나 나는 그런 주장의 타당성을 의심하면서 그 텍스트를 읽었다.

 

독해는 텍스트의 한계와 오류를 찾아내거나 텍스트를 다른 맥락에서 해석하는 작업을 포함한다. ... 어려운 글은 밑줄을 긋고 사전을 뒤지고 인터넷에서 관련 정보를 검색해가면서 읽어야 한다. 독서량이 늘어 아는 게 많아지고 생각이 깊어져야 텍스트를 읽는 속도가 빨라지고 비판적, 창의적으로 독해할 능력이 생긴다.

 

실컷 놀아도 허무하거나 자책감을 느끼지 않는 놀이 또한 독서만 한 것이 없었다.  

 

말 못하는 아기한테도 자주 말을 걸어주어야 한다. 아기는 부모가 하는 말을 이해하려고 무의식적으로 노력한다. 부모가 다정하게 말을 걸어줄 때 아기의 뇌에서는 행복한 비상사태가 일어난다. 청각 신경이 포착한 음성 정보를 해독하고 적절한 대응을 하기 위해 아기의 뇌는 언어를 담당하는 영역에 더 많은 뉴런을 배치하고 교신을 더욱 강화한다. 따라서 반쪽짜리 말을 하는 아이라도 완전한 문장으로 대화해야 한다. '찌찌', '때때', '응가' 같은 반쪽짜리 말을 가르치고, 아이가 그런 말을 한다고 해서 부모도 같은 방식으로 말하면 아이의 뇌는 쉬운 숙제를 받은 학생처럼 느긋해진다. 더 많은 신경세포를 배치하고 더 많은 시냅스를 만들어 더 효율적으로 교신하려는 노력을 덜하게 된다.

 

 

 

영어로 생각하고 영어를 모국어처럼 쓰는 한국인은 거의 없다.  

 

나는 한국어로 생각하면서 독일어로 논문을 썼다. 대부분 영어로 된 참고 문헌을 읽을 때도 한국어로 생각했다. 세부 주제, 데이터, 논리, 문장까지 모두 한국어로 먼저 정리한 후에 독일어로 옮겼따. 그렇지만 독일어로 생각하고 독일어로 글을 쓰는 독일 학생들보다 더 나은 평가를 받았다.

 

요즘은 인터넷이 있어서 글과 인격을 분리하기가 수월하다. 운영자의 실명을 밝히지 않고 블로그를 개설하면 된다. 피차 익명을 쓰는 사람끼리 이야기를 주고받으면 글 비판을 인격 비판으로 여길 필요가 없다. 

 

전우용 선생은 몇 가지 역사적 사실을 불러내어 냉정하게 해석했을 뿐 직접적으로 감정을 표출하지는 않았다. 그런데도 이 글을 읽으면 백신을 만든 과학자와 국가보건정책담당자의 수고를 생각하게 되며, 그로인해 내가 받은 혜택에 감사하는 마음이 든다.

글 쓰는 기술만 공부해서 잘 쓰는 사람도 물론 없다.

우리는 대학생 병영집체훈련을 단호히 거부한다.
선언문에서 하려던 말은 바로 이것이었다. 이렇게 쓰는 게 뭐 어려운 일이란 말이가. 주장하는 바를 한 문장으로 요약해서 문자로 옮기면 된다. ... 첫문장 쓰기는 어렵지 않다. 써보지 않았기 때문에 어렵다고 생각할 뿐이다. 

 

이렇게 글을 쓰기 위한 연습
1. 텍스트 독해
2. 텍스트 요약
3. 사유와 토론 

 

논리 글에서 중요한 점
쉽게 읽고 명확하게 이해할 수 있는 글
논리적으로 반박하거나 동의할 근거가 있는 글
이런 글을 쓰기위해 유념해야할 것
1. 무슨 이야기를 하는지 주제가 분명해야 한다.
2. 그 주제를 다루는 데 꼭 필요한 사실과 중요한 정보를 담아야 한다.
3. 그 사실과 정보 사이에 어떤 관계가 있는지 분명하게 나타내야 한다.
4. 주제와 정보와 논리를 적절한 어휘와 문장으로 표현해야 한다. 

 

그렇다면 대학교와 기업이 굳이 자기소개서를 요구하는 이유가 무엇일까? 글을 얼마나 잘 쓰는지 보려는 게 아니다. 대학 문예창작과 신입생을 선발하거나 광고회사 카피라이터, 출판사 편집사원, 언론사 기자를 채용하는 경우가 아니면 글솜씨를 꼼꼼히 따지지는 않는다. 자기소개서를 받는 것은 이력서만 보아서는 알기 어려운 인간적 특성을 알아보기 위해서다.
우리는 인간적 미덕을 가진 사람을 좋게 본다. 솔직하고, 정직하고, 성실하고, 긍정적이고, 창의성과 열정이 있고, 남을 배려하고, 인내심과 도전 정신이 있는 사람을 훌륭하다고 한다. 자기소개서는 자신이 그런 사람이라고 상상하면서 써야 한다. 그런 사람으로서 이력서에 적은 객관적 사실을 해석하고 자신의 장점과 단점을 살펴야 한다. 그런 마음으로 과거와 현재를 평가하고 미래를 설계해야 한다.

 

 성공한 혁명은 화려해보이지만 그 뿌리는 언제 어디서나, 참혹한 패배를 예감하면서도 먼저 일어나 싸운 사람들의 희생에 닿아 있다.

 

 

 

논증의 미학

취향은 논쟁하지마라

주장은 논증하라

주제에 집중하라, 감정을 섞지마라

 

제 어떤 점이 못마땅한 거죠?
날 비난했던 그 말 오만하다는 말
신이 준 권리를 뺏는 건 오만이죠
그게 못마땅하다 오만한 건 너야
그 말 하러 오셨어요? 남을 심판한 건 바로 아빠에요
넌 동정하기 때문에 심판하지 않는 거야. 불우한 유년기에 저지른 살인은 무죄라고? 네 말대로 환경만 탓한다면 강간범, 살인범도 피해자란 얘긴데 그런 놈들은 개야. 실수를 감추려고 한다면 채찍이 약이지
개는 본능을 따를 뿐이니 용서해야죠
개를 매번 용서해주면 유용한 재주를 익힐 수 없어
제가 오만한 건 용서하기 때문인가요?
세상에! 그 말도 얼마나 오만한 줄 아니? 네겐 선입견이 있어. 저들은 나처럼 고고한 성품을 가질 수 없으니 면죄해 주자, 이보다 더 오만한 게 어디 있니?아가, 넌 사람들을 너무 쉽게 용서하고 있어
인정 많은 게 잘못이에요?
인정을 베풀 땐 베풀어야지, 단 네 기준을 잃어선 안돼. 넌 그 점에서 잘못한 거야. 네가 받아 마땅한 벌은 그들도 받아 마땅해
그들은 인간이에요
아니! 인간은 자기 행동에 책임을 져야 해, 근데 넌 그들에게 기회조차 안줬어, 사랑한다 널 정말 사랑하지만 넌 내가 본 가장 오만한 인간이야, 근데 나보고 오만하다니! 더 할 말이 없구나
우린 오만해요, 이제 그만 가보세요.
딸을 두고 말이냐? 딸을 두고?
그래요!
그래?
그래요
네가 그렇다면 그런 거지, 듣기로는 문제가 좀 있다던데
없어요, 집에 가는 것 말곤 없어요
잠시 생각해보면 맘이 바뀔 지 몰라
아니요
들어봐라, 권력이 나쁜 것만은 아냐, 네 방식으로 사용하면 돼, 잠시 걸으며 생각해봐
여기 사람들은 최선을 다해 살고 있어요
네 말을 믿는다만 그들의 최선이 과연 훌륭할까? 그들은 널 사랑하니?
...
입장이 바뀌었다면 아버지 말처럼 그녀 잣대로 남을 평가하며 척이나, 베라나, 벤이나, 헨슨 부인이나 톰이나 집안의 그 수많은 사람들과 똑같은 잘못을 저지르지 않는다고 어떻게 장담하겠는가? 그녀는 멈춰 섰다. 구름이 흩어지고 달빛이 비치자 도그빌은 아까와는 다른 모습이 됐다. 희미한 자비로운 빛의 그림자가 걷히자 갑자기 구즈베리 덤블에 잔뜩 붙은 메마른 가시들이 보였다. 낡은 건물은 흉한 몰골을 드러냈다. 그리고 사람들도 추해 보였다. 갑자기 모든 것이 명백해졌다. 그녀가 그들과 똑같이 행동했다면 자신의 행동을 용서하지도 못하고 그들을 비난하지도 못 했을 것이다. 그들의 최선은 훌륭하지 못 했다. 그랬다. 그들은 권력을 올바로 썼어야 했다. 그건 의무와도 같다. 다른 마을을 위해, 인간성을 위해, 적어도... 그레이스라는 한 인간을 위해
...
우선 개부터 쏴서 벽에 걸어놓자꾸나. 저 가로등 밑에 본보기로 겁주는 덴 효과 만점이지.
그런다고 마을이 달라지진 않아요, 언젠가는 또 다시 누군가가 드러내겠죠. 나약함을요. 전 더 나은 세상을 만드는 데에 제 권력을 쓰고 싶어요.
...
세상을 위해 이런 곳은 없어져야 해요.
...
그녀가 도그빌을 떠난 건지 도그빌이 그녀를 떠난 건지는 물어봐서 득볼 사람도 별로 없고 대답할 사람은 더더욱 없고 여기서 답하지도 않을 것이다.







해 아래 새로운 지식은 있어도 새로운 지혜는 없다. 내가 만나본 지혜의 여신도 호호백발이었다. 
이해와 연구는 다르다고 할지 모르지만 즐거운 이해 없는 연구가 무슨 가치가 있을 것인가
 
Try to learn something about everything and everything about something
 
*서울대 수리과학부로 진학하고자 선택을 했다. 그 이유를 적어놓고 싶다. 나는 응용수학보다는 순수수학을 하고 싶고, 순수수학을 하는 데에 있어서 지도교수님이나 다른 순수수학 전공하려는 학우들이 많은 서울대가 적합할 것이다. 만혹 서울대에 떨어진다면 성균관대에서 순수수학을 이어나갈 것이다. 
 
우연히 만난 여인은 이렇게 말한다. "이 맥주를 마시면 취한다는 사실 정도만 알 수 있을 뿐 그 뒤에 닥칠 일은 아무도 모르죠" 라고.  도망자인 르롤린은 이 말이 떨어지기가 무섭게 생각지도 못한 일을 겪게 되고, 살인마인 안톤쉬거는 파란 신호등이 켜져있는 것을 두번이나 확인하고도 자동차 사고를 당한다.  결국 이 영화에 등장하는 인물들 모두, 자신에게 닥칠것이라고 기대했던 순간이 와주질 않았다. 
 
살인자 안톤은 응징받지 않으며 보안관은 안톤을 처벌하지도 제거하지도 못한다.
안톤이나 모스나 그 밖의 모든 사람들은 나름대로 "신념"과 "확신"을 지니고 있다.
그것은 "믿음"이 되고 믿음이 발생하는 이유는 "진리"를 모르기 때문이다.
"진리"를 안다면 안톤이나 모스나 모든 인물들에게 진리를 가르쳐주고 그들은 잘못된 믿음을 가지지 않았을 것이다.
이 영화는 세상이 믿음으로 움직이고 이것이 얼마나 치명적인가를 말하고 있다.
왜냐면 믿음은 정지를 의미하고 발전하고 탐구할 필요가 없는 마지막인 끝을 의미하기 때문이다.
 
동기부여에 필요한 요소, 자주(스스로 삶의 방향을 결정하는 욕구), 숙달(Mastery), 소명(내가 하는 일이 세상을 발전시키는 일이란
 
요 근래(2015년 6월~8월, 지도교수님 문제관련)에 내 나름으로는 힘든 일을 겪으며 깨달은 점을 적어본다.
1. 계획, 진로 등이 바뀌어서 인생에 포커싱이 안잡힐 때는 고향에 갔다 오는 게 도움이 되며, 그것은 빠를수록 좋다.
2. 어떠한 잡무가 끝나면 수학공부를 진득히 해야지, 이런 류는 통하지 않는다. 수학을 계속 할거면 시간이 없을 때도 해야한다. 그냥 지금 해야 한다.
3. 자신감을 가지자. 일이 아무리 안풀리더라도, 수학을 하기위한 조건을 알고, 실행할 수 있는 나 자신을 믿어라.
4. 간단한 계산부터 자꾸 해보자. 할 수 있다해서 의미가 없는 것은 아니다.
5. 연구직이라는게 사실상 교수뿐이다. 교수가 되려고 해야한다. 그만큼 열심히여야한다.
6. 해결책으로는, 이게 정말 정답인지 오랜 고민이 있고 확신을 얻은 건 아니지만, 좋아서 하는건지, 그냥 해서 좋아지는건지, 다 떠나서, 지금와서는 그냥 수학하는 시간이 길어야만 한다. 그래야만 한다는 것이다. 
7. 공부에 발전적인 습관을 가지려고 노력해야한다. 유지해야한다. 놓는 순간 잃어져있다.
8. 학교, 교수, 다 떠나서 내 스스로 방향을 결정해서 살아야한다. 자주성을 가져야한다.
9. 내 전공만큼은 숙달해야한다. 대학원 1학년수준의 수학과 내 세부전공, 물론 세부전공을 더 집중해야하겠지만.
10. 소명감, 첫번째 내 일에서 느끼는 소명감은 내 특유의 성실함과 높은 기준으로 사람들이 해결하지 못한 수학문제를 도와주겠다. ...
11. 확실히 카이스트에서 실변수함수론 들을 때 만큼 빡세게 공부해야한다. 그래야 남는다. 몸을 쥐어짜야한다.
12. 남이 날 어떻게 생각하는지, 예를 들면 고등학생 때의 내신 성적, 대학교 간판, 카이스트 지도교수, 성균관대 지도교수 등
13. 늦는 다는 것은 없다. 이 때가 적절했음을 보여라. 하루의 시간도 내가 결정하는 것이다.
14. 이상으로 나에 대한 생각, 내가 앞으로 나아가야할 방향에 대한 생각은 그만해야한다. 이런 생각은 따분함과 머리가 무거워짐과 삶을 즐길 수 없게 된다.
 
상품의 정확한 가치를 알고 난 후 상품을 사는 것은 속지 않기 위해서는 좋은 방법이긴 하지만, 그런 구매자는 결국 영영 시장바닥을 헤매야 한다는 걸 그 역시도 모르고 있었다. 
 
 
 
“보다 확실하게 알기 위해 지금 알고 있는 모든 것을 버릴 것. 더욱 큰 가치를 붙들기 위해 이미 접근해 있는 모든 가치로부터 떠날 것. 미래의 더 큰 사랑을 위해 현재의 자질구레한 애착에서 용감히 벗어날 것.”
 
 
다짐
누구에게도 의지하지 말자. 내게 필요한 지 스스로 묻고 택하고 행동하자. 가족, 친구, 지도교수 모두 의지하지 마라. 내 실력만이 나를 지켜줄 것이다.
봐야할 기본서가 있다면 즉시 시작해서 짧은 기간에 끝내라. 오래붙들고 있어서 뭔가 있는 듯한 착각을 갖게 된다. 별 것 없는, 이미 밝혀진 사실들 뿐이다. 노력하면 짧은 시간에 읽을 수 있는 것이다.
공부모드로 들어가는 데에는 상당한 집중력이 요구된다. 공부모드로 들어서고 나오지 말자. 그 모드 속에 있음을 감사히여기고 유지하자. 그렇게 하기 위해서는 이기적인 면도 필요하다. 내 가족, 내 일, 내 사람들만 생각하자. 굳이 내가 손해봐가며 해야할 일인지 항상 확인해라. 
성공하는 방법을 나는 알고 있다. 그리고 이룰 수 있는 끈기도 가졌다. 다시 실행해야할 때이다. 지금이 아니면 꿈이 날아갈 때다. 아직 할 수 있음을 나에게 보여주자.
 
 
잠 언 시     top↑
 
세상의 소란함과 서두름 속에서 너의 평온을 잃지 말라.
침묵 속에 어떤 평화가 있는지 기억하라.
너 자신을 포기하지 않고서도
가능한 한 모든 사람과 좋은 관계를 유지하라.
네가 알고 있는 지리를 
조용히 그리고 분명하게 말하라.
다른 사람의 예기가 지루하고 무지한 것일지라도
그것을 들어주라. 그들 역시 자신들만의 이야기를 
갖고 있으므로.
소란하고 공격적인 사람을 피하라.
그들은 정신에 방해가 될 뿐이니까.
만일 너 자신을 만과 비교한다면
너는 무의미하고 괴로운 인생을 살 것이다.
세상에는 너보다 낫고 너보다 못한 사람들이 언제나 있기 마련이니까.
네가 세운 계획뿐만 아니라
네가 성취한 것에 대해서도 기뻐하라.
네가 하는 일이 아무리 보잘 것 없는 것일지라도
그 일에 열정을 쏟으라.
변화라는 시간의 흐름 속에서
그것이 진정한 재산이므로.
세상의 속임수에 조심하되
그것이 너를 장님으로 만들어 
무엇이 덕인가를 못 보게 하지는 말라.
많은 사람들이 높은 이상을 위해 노력하고 있고
모든 곳에서 삶은 영웅주의로 가득하다.
하지만 너는 너 자신이 되도록 힘쓰라.
특히 사랑을 꾸미지 말라고
사랑에 냉소적이지도 말라.
왜냐하면 모든 무미건조하고 덧없는 것들 속에서
사랑은 풀잎처럼 영원한 것이니까.
나이 든 사람의 조언을 친절히 받아들이고
젊은이들의 말에 기품을 갖고 따르라.
잡작스런 불행에 자신을 지킬 수 있도록
정신의 힘을 키우라.
하지만 상상의 고통들로 너 자신을 고통스럽게 하지는 말라.
두려움은 피로와 외로움 속에서 나온다.
건강에 조심하되
무엇보다 너 자신을 괴롭히지 말라.
너는 우주의 자식이다.
그 점에선 나무와 별들과 다르지 않다.
넌 이곳에 있을 권리가 있다.
너의 일과 계획이 무엇일지라도
인생의 소란함과 혼란스러움 속에서
너의 영혼을 평화롭게 유지하라.
부끄럽고, 힘들고, 깨어진 꿈들 속에서도
아직 아름다운 세상이다.
즐겁게 살라. 행복하려고 노력하라.
 
 
너무 늦기 전에     
 
그 남자는 부자가 되어야 행복할 것이다.
그러기 전까지는 그는 형편없는 인간에 불과하다.
그가 편협한 생각을 갖고 있는 건지는 모르지만
그는 남에게 친절 따위를 베풀 시간이 없다.
 
그 여자는 뚱뚱하다.
그래서 아무도 그녀를 사랑하지 않는다.
자신이 왜 이런 불행을 타고 났는지
그녀는 이해할 수 없다.
효과적인 다이어트 법을 발견하기 전까지는 
세상은 그녀에게 재미없는 곳이다.
 
또다른 남자가 있다. 그는 인정받고 싶고,
명성을 얻고 싶다.
따라서 지금은 한가로이 웃고 지낼 시간이 없다.
그 모든 것을 손에 넣었을 때
그는 자신만의 아름다운 성에서 살 것이다.
 
또다른 여자가 있다. 그녀는 못생겼다.
그녀는 사람들의 시선이 애정에서 나오는 게 아니라는 걸
잘 안다.
때가 되면 그녀는 턱뼈를 깎고 코 수수을 할 것이다.
그때가 되기 전까지는 
그녀 혼자 있게 내버려 두라.
 
그리고 또다른 여자는 집안일 때문에 시간이 없다.
아이들을 다 키우고 나면
그때 그녀는 자신의 인생을 살 것이다.
그때가 되기 전까지는
계속 집안일에 매달리 수밖에 없다.
자신이 원하는 일을 뒤로 미루면서.
 
이들 모두가 어떤 계기를 만났다면
틀림없이 자신의 인생을 사랑하고
모든 사람을 사랑했을 것이다.
더불어 그들의 영혼도 성장했을 것이다.
하지만 그들은 너무 오래 기다렸다.
왜냐하면 그들 모두 죽었으니까.
 
모든 것을 맛보고자 하는 사람은
어떤 맛에도 집착하지 않아야 한다.
모든 것을 알고자 하는 사람은
어떤 지식에도 매이지 않아야 한다.
모든 것을 소유하고자 하는 사람은 
어떤 것도 소유하지 않아야 하며,
모든 것이 되고자 하는 사람은 
어떤 것도 되지 않아야 한다.
자신이 아직 맛보지 않은 어떤 것을 찾으려면
자신이 알지 못하는 곳으로 가야 하고,
소유하지 못한 것을 소유하려면
자신이 소유하지 않은 곳으로 가야 한다.
모든 것에서 모든 것에게로 가려면
모든 것을 떠나 모든 것에게로 가야 한다.
모든 것을 가지렴
어떤 것도 필요로 함이 없이 그것을 가져야 한다.
 
 
 
 
첫째, 공부를 하는 사람은 학문에 대한 열정이 있어야 한다. 무언가에 '빠져서' 끊임없이 정진해야 한다. 
둘째, 대학원생들은 장래의 불안감을 극복해야 한다. 
셋째, 공부를 하는 이들은 학문을 하는 것에 대한 소명감이 있어야 한다. 김 교수에 따르면  대학원생들은 공부를 단순한 직업(job)이 아닌 하나의 부름(calling)이라는 생각을 가지고 있어야 한다.

 

 

 

당시에 나는 역사학에 대한 낭만적인 생각을 갖고 있었다. ‘역사를 모르면 아무것도 모른다. 과거를 모르면 현재도 모른다’ 이런 포부를 가지고 공부했는데 아편쟁이처럼 공부에 빠지게 됐다. 동숭동에 있을 때 미국에서 공부하라는 말을 듣고 미국으로 건너가 공부했다. 『The Rise of American Civilization』을 읽고 미국사에 빠지게 됐다. 우리 또래는 돈벌이 생각은 전혀 없고 학문에 대한 낭만이 있었다. 특히 핵심적인 학문에 대한 현실 등을 그 가난한 50년대에 깨달았다.

 

 

 

아무 것도 없는 깨끗한 백지였다. 그 위에 검은 점 하나를 꾹 눌러 찍었다. 쉽게 지워지지 않을 줄 알면서도 모른 척 했다. 그리고 이젠 정말 그 점을 지워야 하는 지금, 지우개로 아무리 종이를 박박 문질러봐도 지워지지 않는다. 종이만 찢어지고 문드러져서 너덜너덜해졌을 뿐, 검은 점은 갈수록 번져만 간다.

 

 

 

 

 

 

 

한때는 죽을 만큼 좋아했던 사람과 모른체 지나가게 되는 날이 오고
한때는 비밀을 공유하던 가까운 친구가 전화한통 하지 않을 만큼 멀어지는 날이 오고
또 한때는 죽이고 싶을 만큼 미웠던 사람과 웃으며 볼 수 있듯이
시간이 지나면 이것 또한 아무것도 아니다.

변해버린 사람을 탓하지 않고, 떠나버린 사람을 붙잡지 말고
그냥 그렇게 봄날이 가고 여름이 오듯
내가 의도적으로 멀리하지 않아도 스치고 떠날 사람은 자연히 멀어지게 되고
내가 아둥바둥 매달리지 않더라도 내 옆에 남을 사람은 무슨일이 있더라도 알아서 내 옆에 남아 준다.
나를 존중하고 사랑해주고 아껴주지 않는 사람에게
내 시간, 내 마음 다 쏟고 상처 받으면서 다시오지 않을 꽃같은 시간을 힘들게 보낼 필요는 없다.

비바람 불어 흙탕물을 뒤집어 썼다고 꽃이 아니더냐? 다음에 내릴 비가 씻어준다.
실수는 누구나 하는거다.
아기가 걸어다니기까지 3000번은 넘어지고서야 겨우 걷는 법을 배운다.
난 3000번을 이미 넘어졌다가 일어난 사람인데 별것도 아닌 일에 좌절하느냐?
이 세상에서 가장 슬픈 것은 너무 일찍 죽음을 생각하게 되는 것이고
가장 불행한 것은 너무 늦게 사랑을 깨우치는 것이다.

내가 아무리 잘났다고 뻐긴다 해도 결국 하늘 아래에 놓인건 매한가지인 것을
높고 높은 하늘에서 보면 다 똑같이 하찮은 생물일 뿐인것을
아무리 키가 크다 해도 하찮은 나무보다도 크지 않으며
아무리 달리기를 잘한다 해도 하찮은 동물보다도 느리다.
나보다 못난 사람을 짓밟고 올라서려 하지 말고
나보다 잘난 사람을 시기하여 질투하지도 말고
그냥 있는 그대로의 나를 사랑하며 살았으면 좋겠다.
하늘 아래에 있는 것은 다 마찬가지니까.

 

 

 

두 사람 중 한 사람을 택해야하는 경우, 그 두사람 중 내가 더 도움이 될 수 있는 사람이 누군가를 생각해보는 것도 도움이 된다.

 

 

 

모든 사람이 재미없어도 사는 것이다. 다 재미없게 사는 것이다. 무언가가 재미가 없으면 좋은 것이다. 재밌는게 나타나면 그 일에 몰입할 수 있기 때문이다.

 

 

 

습관을 바꾸려면 죽을 각오로 하라. 그리고 안된다면 자책하지말고 그냥 그대로 살아라. 바꾸지 못함에는 무의식이 있다, 그 무의식은 죽을 각오로해야 바뀐다.

 

 

 

신사는 묻지 않고 숙녀는 말해주지 않는다.

 

 

모든 남자가 가슴 큰 여자를 좋아하진 않는다. 모든 남자가 가슴 작은 여자를 좋아하지 않는다.

기존에 존재하는 것을 다르게 해석하는 능력, 그것이 창의력이다.

 

 

행복은 소망의 실현이다. 

 

 

 

자유는 매번 수행할 기획(즉, 자유가 현실 속에서 만들어낼 수 있는 현실)에서 출발하여 재해석된다. 

 

 

 

개인은 자신의 미래를 향해 열려있으며, 이 미래는 기성의 정의에 갇히지 않는다. 그 결과 내가 어떤 사람인가는 그 자체로는 알기 힘들고, 내가 되기를 바라지만 아직 되지 않은 미래의 모습을 고려함으로써만 정의될 수 있다. 그러므로 과거는 우리의 욕망이나 기획에 따라 이용되어야 한다. 과거는 움직이지 않는 것이 아니고 그 의미 또한 예전에 정해진 대로 고정되어 있는 것이 아니다. 그러므로 과거를 재가공하는 것은 나의 몫이며, 나는 나의 과거를 오직 나에게 유용한 방식으로만 기억할 수 있다. 즉 내가 어떤 모습으로 변하는가에 따라 내 과거의 의미는 달라진다.

 

 

 

행복=가진 것/원하는 것, 가진 것에 만족할 줄 알아야 한다.

 

 

 

천국의 오류, 초점오류의 일종으로, ~을 가지면 좋겠다. ~의 한 특성만을 고려해서 생각한 오류, 예를 들면 무인도에 한 가구만 사는 경우, 천국같아보이지만, 아플 때 불편하고 식수, 전기, 등을 고려 못하는 점

 

 

 

쾌락적응, 즐거운 일이든, 불행한 일이든, 시간이 지나면 행복도가 원래의 상태로 돌아간다는 이론

 

 

 

춘천사람과 서울사람에게 각각 어느지역 사람이 더 행복하냐는 설문에 둘다 서울지역 사람이 더 행복할 거라고 생각했지만 실제론 비슷비슷하게 나왔다.

 

 

 

행복은 어떤 대단한 한방이 아니라는 것이다. 아주 소소하지만 빈번하게 작은 긍정적인 기쁨을 얼마나 자주 느끼느냐가 행복도를 결정

 

 

 

행복은 생각+감정, 생각(내가 원하는 길을 가고 있다), 감정(그 과정이 즐겁다.)

 

 

 

자신의 목표를 향해 가고 있다면 고통스럽더라도 우리는 행복하다고 말한다. 하지만 그 과정에서 긍정적 감정을 경험하지 못한다면 우리는 또 불행하다고 말할 수 있다. 

 

 

 

삶의 질은 평생 어떤 일을 하며 그 일을 하며 어떤 생각을 하는 지에 달려있다.

 

 

 

스스로 가치를 느끼는 순간 지루함과 고통은 갑자기 즐거움으로 변한다. 행복은 내 손 안의 작은 새다.

 

 

 

사랑하면 알게된다. 다 안다는 말이 아니라, 끝까지 알려고 한다는 것이다. 안다고해서 사랑하는 것은 아니다.

 

 

 

 

 

 

 

일등하는 아이는 사랑을 못한다. 골고루 공부해야하니까 결국 다 외워야하니까. 일등하는 아이는 나중에 평범해진다. 역사에 이름이 남기는 힘들다. 지금 많이 알고 있지만, 사랑하지 않기 때문에 1,2년 뒤에 다 까먹게 된다. 한개를 사랑하고 나머지는 어쩔 수 없이 대충하는 사람이, 오랜 세월 뒤엔 반짝이는 사람이 될 것이다.

 

 

 

 

 

 

 

사랑하는 대상이 바뀔 수는 있는데, 사랑이 없어서는 안된다. 죽을 때까지 사랑을 해야한다.

 

 

 

슬픈 영화를 본 후에 친구들과 대화를 할 때, 어느 부분이 슬펐는지, 슬퍼한 대목이 서로 다르다. 마찬가지로 공부를 할 때도, 수학을 좋아하는 아이들 사이에서도 어느 부분이 좋은 지 각자가 다를 수 있다. 학문을 할 때의 가장 큰 포인트는, 나만 좋아하는 부분을 찾는 것이다. 좋아하는 부분 찾을 때까지 다방면으로 공부하는 것이다.

 

 

 

과학을 좋아해서 카이스트가는 애는 극히 일부야. 과학을 진짜 좋아하는데 왜 성적때문에 자살하니? 업적만 생각하는 애들, 그런 애들이 죽지. 자기가 좋아하는 자연과학을 하러 카이스트에 와서 오늘 실험 실패했다고 죽는 새끼가 어딨어? 사랑하게되면 안죽어, 좋아하는 거 하는데. 

 

 

 

진짜 사랑을 하게되면 어떠한 제약도 넘어간다.사랑을 하게되면 자유를 요구하고, 강해진다. 그래서 고민해야 할 것은, 내가 사랑할 것이 무엇인지만 고민하면 된다.

 

 

 

고백컨대, 꿈이 없어도 노력으로 성공한 사람은 많이 봤습니다. 노력 없이 꿈으로 성공한 사람은 본 적이 없어요. 어떤 멘토는, 허황된 꿈을 꾸지 말고 아예 먼미래의 목표는 다 잊어버리고 지금 당장, 눈 앞에만 집중해서 최선을 다하란 얘기도 했습니다.

 

 

 

특히나 현실적인 근성은 꿈을 꾸는 사람보다, 헝그리한 사람이 훨씬 강합니다. 꿈을 좋아하는 사람 중 다수는 낭만적인 걸 좋아하기에 도중에 쉬이 지치고는 합니다만, 헝그리한 사람은 지치지 않죠. 이룬 것도 뭐도 없기 때문에 지칠 여유 자체가 없습니다. 끝까지 가는 사람은 대개 헝그리한 사람들입니다. 어려서 꿈만 키운 사람 보다는요. 현실에 투정댈 여유도 없고, 내 몸값에 안맞는 일이라거나 학벌이 아깝다고 징징댈 여유도 없습니다. 오늘은 좀 쉬어야겠다고 할 수도 없고, 저건 좀 귀찮은데 라고 할 여유도 없어요. 시키면 해내고, 할 수 있을 것 같으면 하는 사람들은, 절박함이 강한 사람들이에요. 

 

 

 

 

 

 

 

고등학교 때는 내가 머리 좋은 지 알았는데 대학오니까 난 아닌가봐 ㅠㅠ, 라는 글에 댓글이, 대학교 때는 내가 멍청한 줄 알았는데 직장와보니까 아니더라.

 

 

 

그저그런 영화도 하이라이트는 재밌다. 타인의 삶은 하이라이트로 보게 되어있고, 내 삶은 단 1초도 편집 안 된 그대로 느끼게 되어있다. 그러니 철저하게 편집된 타인의 삶을 부러워할 필요도, 도대체 내 삶만 왜 이 모양인가 슬퍼할 필요도 없다.

 

 

 

 

 

 

 

성적이 나를 지켜주지 않는다. 오직 나만의 생각하는 방법, 내가 무언가를 접했을 때 떠올렸던 그 영감, 그리고 그것으로부터 뻗어져나오는 생각의 갈래. 그 자유로움과 풍성한 상상이 나를 만들고 그것이 나를 살게할 것이다.

 

 

 

 

 

 

 

메타 인지(Metacognition)란 자신이 무엇을 알고 무엇을 모르는지 정확히 파악하는 능력이다.

 

 

 

자신이 겪는 어려움과 불이익을 너무 깊이 생각하는 사람은 자기 연민과 좌절감에 사로잡힌 채 자신의 모자란 점을 다른 무언가의 탓으로 돌리고, 배움에는 전혀 신경을 쓰지 않는다. '학습된 무기력'에 빠지기도 한다. 거듭 마주치는 장애물 때문에 실패를 경험한 사람이 그 장애물이 사라져도 어쩔 도리 없는 것처럼 행동하는 경우를 이르는 말이다.

 

 

 

교과서 내의 단어를 바꾸는 것도 효과가 있다. '~일 수도 있다.', '~일 지도 모른다'와 같은 구절이 들어가면 학생들은 훨씬 더 다양한 답을 생각해 내고... 역사를 공부할 때도 마찬가지다. 스탠퍼드 대학교의 한 교수는 학생들에게 어떤 특정 인물의 역할을 주고 독일의 역사에 대해 일기를 쓰도록 했다. "너는 1900년에 베를린 매춘부의 자식으로 태어났어" 라는 가정을 전달받은 학생은 1914년 제1차 세계 대전이나 1920년대 나치당과 히틀러의 등장을 어떤 시각으로 바라볼까?

 

 

 

원래 존재하지도 않았던 고정 관념을 만들어 낼 수도 있다는...유럽계 미국인 남학생들에게 아시아계 미국인들이 수학 성적이 더 좋다고 말하자, 그들은 곧장 고정 관념의 피해자가 되고 말았다. ... "네가 그렇게 똑똑하다면 왜 부자가 못 됐어?"라는 말은 가난한 사람은 우둔하다는 고정 관념이 되고, 그러한 이미지는 저소득 가정 출신 학생들의 학습을 저하시킬 수 있다.

 

 

 

우리는 자신의 다양한 역할을 통해 정체성을 구축해 나가는데, 자신과 동일시하는 집단이 추한 고정 관념의 표적이 되면, 다른 사람들의 시선을 의식하며 두려움과 자기 비하에 빠진다. ... 기차가 다가온다는 걸 안다면, 기차에 치이는 일을 피할 수 있다. 자신의 정체성, 특별한 자질, 경험을 즐기고 고맙게 여길 줄 안다면, 자아의 존엄성을 계속 지킬 수 있다.

 

 

 

 

 

 

 

 

'글쓰기 > 진행중' 카테고리의 다른 글

가볼만한 여행지 정리해두기  (0) 2018.10.30
Kaggle 입문  (0) 2018.10.29
운동일기  (0) 2018.10.15
신기술들 요약  (0) 2018.07.09
영어정리  (0) 2018.07.08

+ Recent posts