Ai세상 : Ai로 굿즈 만들기

대상/인원 : 성인/8명 or 다문화가정 및 일반가정 32명 



프로그램 진행과정

1. 오리엔테이션

: 사업 소개 및 프로그램 안내, 안전교육
: 참여 과학 커뮤니케이터소개

2. Ai(인공지능)에 관련한 과학 이론 강의

: 인공지능에 관한 이론 설명

3. 인공지능 프롬프트 입력 실습

: 인공지능에 프롬프트를 입력하여 원하는 결과물(그림)을 만들어 보는 실습

4. 인공지능 프롬프트 수정 및 작품 선택

: 프롬프트를 수정해 원하는 결과물을 만들고 그중에서 원하는 작품을 골라 강사에게 전송

5. 작품 인쇄

: 강사는 전송받은 작품을 좌우반전으로 해서 전사용지에 프린트 한다.

6. 히트프레스 작품 전사

: 프린트된 그림을 테두리를 따라 오려주고 

약 160도로 예열된 히트프레스에 티셔츠 혹은 파우치를 올린다.

티셔츠 혹은 파우치 위에 전사지를 뒤집어 놓고 기계를 내려 약 20초간 압력과 열을 가한다,

7. 작품 공유 및 마무리

: 충분히 식은 티셔츠 혹은 파우치위 전사용지를 뗀다.

자신의 작품을 공유하고 진행 과정에서 알게 된 과학을 나누며 마무리



인공지능에 관련한 과학 이론

● 인공지능 개발의 역사


-1950s — 탄생기

  • 앨런 튜링: “기계가 생각할 수 있는가?” → 튜링 테스트 제안

  • 퍼셉트론(Perceptron) 개발: 초기 형태의 인공신경망

- 1960~1970s — 규칙 기반 AI의 전성기

  • 전문가 지식 → 규칙(IF–THEN)으로 표현

  • 특정 문제(의학 진단 등)에 강했지만 확장성과 유연성 부족

- 1980s — AI 겨울 + 신경망 재부흥

  • 규칙 기반의 한계 → 기대감 붕괴 → AI 겨울

  • 역전파(Backpropagation, 1986) 등장으로 다층 신경망 학습 가능

- 1990~2000s — 머신러닝의 시대

  • SVM, 결정트리, 랜덤포레스트처럼 통계 기반 ML 기법 발전

  • 데이터 기반 판단이 규칙 기반을 대체

- 2010s 이후 — 딥러닝의 폭발적 성장

  • GPU 발전 + 빅데이터 → CNN, RNN, Transformer 탄생

  • 2017년: Attention is All You Need → GPT 계열 모델의 기반

- 2020s — 생성형 AI 시대

  • GPT, Claude, Gemini 등 대규모 언어모델(LLM) 등장

  • 텍스트·이미지·음성·영상 생성까지 확장



● 규칙 기반(Rule based)과 머신 러닝(Machine learning)의 차이


 - 규칙 기반(Rule-Based)

동작 원리사람이 만든 **규칙(IF–THEN)**의 집합
장점예측 가능, 설명 쉽다
단점규칙이 폭증, 예외 처리 어렵다, 학습 불가
스팸 필터를 “특정 단어 포함 여부”로 판단


-머신러닝(Machine Learning)


동작 원리데이터에서 패턴을 자동 학습
장점높은 정확도, 복잡한 패턴 처리 가능
단점왜 그렇게 판단했는지 설명 어려움, 데이터 의존
이메일을 실제 스팸 사례 데이터로 학습한 모델


핵심 차이:

  • 규칙 기반 = 사람이 규칙 제공

  • ML = 데이터가 규칙 생성


●  함수의 원리

 : 함수란 입력(Input)을 받아 출력(Output)을 만드는 매핑 관계.

- 함수의 핵심 개념

 입력과 출력 간의 관계 정의 규칙

 수학 함수: 𝑦=𝑓(𝑥)

 ML에서의 함수: 파라미터를 가진 모델이 입력 → 예측으로 변환

- ML 맥락에서의 함수

 모델은 복잡한 다항식, 행렬 변환 등으로 구성되며 파라미터(가중치)가 학습 과정에서 계속 조정됩니다.


>>머신러닝 모델을 “매우 복잡하고 많은 파라미터를 가진 거대한 함수”라고 이해하면 전체 구조가 쉽게 잡힘



●  인공 신경망(Neural network)의 작동 원리


-핵심 구조

  입력층(Input layer): 데이터 들어옴

  은닉층(Hidden layers): 특징 추출

  출력층(Output layer): 최종 예측 생성

- 뉴런(Neuron)의 계산

각 뉴런은 다음을 수행:

  𝑜𝑢𝑡𝑝𝑢𝑡=𝑎𝑐𝑡𝑖𝑣𝑎𝑡𝑖𝑜𝑛(𝑊𝑥+𝑏)

  W: 가중치

  b: 편향

  activation: 비선형 함수(ReLU, Sigmoid 등)

-인공신경망의 핵심

여러 층을 통해 데이터의 추상적 특징을 점점 깊게 표현

팁: ANN을 “특징을 단계별로 압축해 표현하는 계층적 필터”라고 이해하면 직관적


●특징 포착을 위한 가중치 학습 원리

- 가중치(Weight)의 역할

  • 입력 특징의 중요도를 조절하는 파라미터

  • 어떤 입력이 출력에 얼마나 영향을 주는지 표현

- 학습(Training)의 핵심 과정

  1. 순전파(Forward pass)
    입력 → 출력 계산

  2. 오차 계산(Loss)
    예측값과 정답의 차이

  3. 역전파(Backpropagation)
    오차가 발생한 방향으로 파라미터 변화량 계산

  4. 경사하강법(Gradient Descent)
    오차가 줄어드는 방향으로 가중치 업데이트

- 왜 특징이 자동으로 포착될까?

모델이 오차를 줄이기 위해 가중치를 반복적으로 조정하면서
입력에서 패턴을 가장 잘 설명하는 방향으로 스스로 구조를 최적화하기 때문.

팁: 딥러닝에서 “특징을 사람이 설계하지 않아도 된다”는 강점은 가중치가 자동으로 조정되기 때문.



●GPT 모델의 원리 

- GPT의 핵심 기반: Transformer 구조(2017)

GPT는 Transformer의 디코더 구조를 기반으로 함.

- Self-Attention의 역할

모든 단어가 문장 내 다른 단어와의 관계를 학습
→ 문맥 이해 능력이 폭발적으로 향상

예: “bank”가 금융인지 강둑인지 문맥으로 판단

- GPT의 학습 방식

  1. 인터넷 텍스트 대규모 수집

  2. 다음 단어 예측 방식으로 학습

    P(다음 단어∣앞 문맥)P(\text{다음 단어} | \text{앞 문맥})P(다음 단어∣앞 문맥)
  3. 수십억 개의 파라미터가 문맥 패턴을 학습

  4. 정교한 언어 생성 능력 획득

- GPT의 작동 원리 요약

  • 입력 문장을 토큰화

  • Self-Attention으로 문맥 파악

  • 확률적으로 가장 자연스러운 다음 토큰 생성

  • 이를 반복하여 긴 문장·문서 생성

팁: GPT는 “문맥을 확률적으로 예측하는 거대한 패턴 모델”이라고 이해하면 동작이 명확하게 보임.



●인공지능 시대에 생각해야 할 것들

 1) 데이터 윤리·프라이버시

AI는 학습 데이터에 매우 의존 → 데이터 출처와 편향이 중요

 2) 인간–AI 협업 구조

AI가 인간의 일을 대체하기보다 능력 증폭(Augmentation) 효과를 중심으로 생각

 3) 저작권과 생성물 소유

AI 생성물의 권리 문제는 계속 변화하는 영역

 4) 신뢰성과 투명성

“왜 이런 결과가 나왔는가?” → Explainability 중요성 증가

 5) 일자리 변화

반복 업무는 감소하고, “AI를 활용하는 사람”의 가치가 상승

 6) 지속적 학습 필요

기술 변화 속도가 매우 빠르므로 재학습·업스킬링이 필수

팁: AI 시대 핵심 역량은 “AI를 잘 활용하여 자신의 도메인 문제를 더 빨리, 더 깊이 해결하는 능력”