본문 바로가기

분류 전체보기48

Message Authentication Code (MAC) Message Authentication Code쉽게 말해 데이터가 변조되었는지를 확인하기 위해 원본 msg에 덧붙이는 code이다. 그래서 cryptographic checksum이라고도 불린다. Digital Signature와 비슷한 원리로, sender는 보내려는 msg에 MAC을 concatenate 후 receiver에게 전달한다. Receiver는 msg에 동일한 연산을 적용한 후 얻은 결과값이 받은 MAC값과 동일하면, msg가 변조되지 않았으며 예상한 sender로부터 왔다는 것을 알 수 있다.  MAC Properties- Digital Signature와 다른 점은, 생성될 때 secret key를 사용한다는 점이다. msg와 secret key가 MAC 생성 함수 C의 input으로.. 2024. 6. 11.
The Onion Router (TOR) BackgroundTLS(Transport Layer Security)는 IP header를 암호화하지 않는다. 만약 TLS가 header를 암호화한다면, header 정보를 탈취하려는 중간자 공격을 막을 수 있어 좋아보이기도 한다.하지만 IP header를 암호화해버리면, Network Layer에서 routing 시에 destination IP address로 패킷을 전달할 수 없게 된다. Router가 해당 packet을 어디로 전달할지에 대한 정보가 header에 있기 때문이다. 그러면 router에게 IP packet의 header를 공개하는 것이 불가피한 상황에서, 어떻게 하면 중간자 공격으로부터 자유로울 수 있을까? Linkability Issue만약 TLS 차원에서 데이터를 암호화한 후, .. 2024. 6. 10.
[졸업프로젝트] 상품 태그 OCR 모델 개발 과정 이번 졸업프로젝트에서 AI 모듈 구현을 맡게 되어서, OCR을 활용한 상품 태그 인식 파이프라인을 구현했다.우리 팀이 개발하는 서비스 'TruthTag'는 식료품 스마트컨슈밍 어시스턴트로, 가공 식료품에 스킴플레이션이나 슈링크플레이션이 일어나는지를 모니터링하고, 상품의 변동 사항을 시각화하여 제공하는 서비스이다. 사용자가 원한다면 특정 상품 대신 구매할 수 있는 대체품을 추천하는 챗봇 서비스 기능도 있다. 그러니까 우리 서비스에서 AI 모듈이 필요한 곳은 1) 사용자가 이미지로 상품 검색과 2) 챗봇 두 군데인데, 이번 게시글에서는 1) 이미지로 상품 검색 기능을 개발한 과정에 대해 작성해보려고 한다. 0. 기능 설명사용자가 마트나 편의점에서 상품 태그 사진을 찍으면, OCR을 통해 이 사진 내의 텍스트.. 2024. 5. 21.
Data Management Full Stack Deep Learning 강의를 듣고 정리한 내용입니다. Common Data Management Path for Deep Learning 딥러닝 과정 중에는 가지고 있는 데이터를 GPU 옆의 local filesystem에 옮기는 작업이 필요하다. 데이터를 train가능한 형태로 옮기는 방법은 프로젝트나 회사마다 다르다. 예를 들면: train your images on ImageNet, and all the images are just S3 URLs -> simply download them over to the local filesystem. a bunch of text files -> use Spark to process them on a cluster and Pandas da.. 2023. 2. 15.
MLOps Infrastructure & Tooling Full Stack Deep Learning 강의를 듣고 정리한 내용입니다. 📌3 Buckets of ML Infrastructure & Tooling Landscape Data -Sources -Data Lake/Warehouse -Processing -Exploration -Versioning -Labeling Training/Evaluation - Compute -Resource Management -Software Engineering -Frameworks & Distributed Training -Experiment Management -Hyperparameter Tuning Deployment -CI/Testing -Edge(mobile/robotic hardware) -Web -Monitor.. 2023. 2. 15.
Transformers Full Stack Deep Learning 강의를 듣고 정리한 내용입니다. 📌Transfer Learning in Computer Vision Resnet-50와 같은 deep neural network(NN)들은 성능이 좋긴함. But they are so large that it overfits on our small data. Solution: ImageNet을 사용해 NN을 train한 후 fine-tuning하기 Result: better performance! Fine-tuning model: ImageNet을 사용해 모델을 학습시킨 후 마지막 몇 개의 layer만 다른 것으로 replace. Tensorflow와 Pytorch로 쉽게 구현 가능. 📌Embeddings and Language.. 2023. 2. 15.
RNNs Full Stack Deep Learning 강의를 듣고 정리한 내용입니다. 📌Sequence Problems Sequence Problem 종류 - one-to-many: input -> single value, output -> sequence인 경우 - many-to-one: input -> sequence, output -> single value인 경우 -many-to-many: input -> sequence, output -> sequence인 경우 Sequence Problem 예시 Why not use feedforward networks instead? Problem 1: Variable Length Inputs 모든 sequence에 padding을 추가해 max length와 동일한.. 2023. 2. 15.
Computer Vision Full Stack Deep Learning 강의를 듣고 정리한 내용입니다. 📌AlexNet Deep layer with 8 layers First convnet winner Innovated with ReLU and Dropout Dropout: some set of weights are set to zero randomly in training Heavy data augmentation(flip, scale, etc) Fun fact: usually drawn as two parts, because the biggest GPU only had 3GB memory at the time 그래서 model distributed training을 했어야 했다. (model이 두개의 다른 GPU에 위치한 상태.. 2023. 2. 15.
Deep Learning Fundamentals Full Stack Deep Learning 강의를 듣고 정리한 내용입니다. Neural Networks 📌Biological Neurons 외부의 자극이 dentrites를 통해 들어옴 ->역치를 넘어서면 firing함(axon을 통해 electrical potential전달) 📌Artificial Neuron input x: biological neuron에서 외부의 자극에 해당 weight w: 자극에 대해 얼마나 영향을 받는지 조정 b: bias activation function: (=threshold function) sum값이 역치를 넘어서면 on, 아니면 off 📌Common Activation Function Sigmoid Function Hyperbolic Tangent Rectifie.. 2023. 2. 15.