All59 [인공지능] Chapter 8. Adversarial Search (2) Uncertain outcomes controlled by chance, not an adversary! Expectimax Search 어떠한 행동의 결과가 어떻게 될지 알 수 없는 이유는? Explicit randomness Unpredictable opponents Actions can fail Values should now reflect average-case (expectimax) outcomes, not worst-case (minimax) outcomes Expectimax search Compute the average score under optimal play Minimax search와 같은 max node Chance node are like min nodes but the out.. 2023. 10. 25. [인공지능] Chapter 7. Adversarial search (1) Games There are many different kinds of games Deterministic or stochastic One, two, or more players? Zero sum? Perfect information (can you see the state)? We want algorithms for calculating a strategy (policy) which recommends a move from each state Deterministic Games States Players Action Transition function Terminal test Terminal Utilities Zero-sum games Zero-sum games Agents는 서로 반대되는 utilit.. 2023. 10. 25. [인공지능] Chapter 6. Constraint Satisfaction problems What is search for? Assumptions about the world a single agent deterministic actions fully observed state discrete state space Planning: Sequences of actions Goal에 이르는 Path가 중요 Paths는 다양한 비용과 깊이(depths)를 가짐 Heuristics give problem-specific guidance Identification: assignments to variables Goal 그 자체가 중요 (Path가 아니라) 모든 Paths는 같은 depth를 가짐 CSPs are a specialized class of identification problems Con.. 2023. 10. 24. [인공지능] Chapter 5. Propositional logic Propositional Logic 명제 논리 Basic concepts of knowledge, logic, reasoning Propositional logic: syntax(구문) and semantics(의미론), Pacworld example Inference by model checking and theorem proving Agents that know things Agents는 지각, 학습, 언어를 통해 지식을 습득 Knowledge of the effects of actions trainsition model Knowledge of how the world affects sensors sensor model Knowledge of the current state of the world C.. 2023. 10. 24. [인공지능] Chapter 4. Local Search Local Search Algorithms 많은 최적화 문제에서, paths는 irrelevant하다. The goal state is the solution Then state space = set of ‘complete’ configurations; find configuration satisfying constraints (n-queens problem) or find optimal configuration (travelling salesperson problem) In such cases, we can use iterative improvement algorithms keep a single ‘current’ state, try to improve it constant space, suitable.. 2023. 10. 24. [인공지능] Chapter 3. Informed Search Heuristic 특정 state가 얼마나 goal state에 가까운지 평가하는 함수 특정 Search problem을 위해 고안됨 Greedy Search goal state에 가장 가까워 보이는 노드로 확장 Strategy expand a node that you think is closest to a goal state Heuristic 활용: 각각의 state에서 가장 가까운 goal까지의 거리 계산 A common case Best-first takes you straight to the goal Worst-case kike a badly-guided DFS A* Search UCS + Greedy Uniform-cost orders by path cost, or backward cost g(.. 2023. 10. 24. [인공지능] Chapter 2. Search Agent Reflex agents Current percept 기반 행동 행동의 결과를 고려하지 않음 Consider how the world IS Planning agents 행동의 결과를 고려 Consider how the world WOULD BE Search Problems Consist of A state space 모든 가능한 상태들의 집합 A successor function 현재 상태를 기반으로 다음 상태 및 비용을 연산하는 함수 A start state 초기상태 A goal test 주어진 상태가 목적 상태인지 확인하는 함수 Solution start state를 goal state로 바꾸는 sequence of actions State space Graphs A mathmatical .. 2023. 10. 24. 생활코딩 WEB1 - HTML & Internet 정리 2 (8~16) 8. 통계에 기반한 학습 html에서 현재 약 150개 태그가 존재 모두 외울 필요는 없다. 검색하면 다 알 수 있기 때문 * 기본적으로 익히고 있으면 좋은 태그 모든 웹페이지는 평균적으로 약 25개 종류의 태그로 이루어짐 9. 줄바꿈: br vs p * 인기있는 태그 : 줄 바꿈 태그. 닫을 필요 x @@ : 단락 태그. 태그 사이에 * CSS 문법 : 단락 위에 40픽셀만큼 여백 두기 10. html이 중요한 이유 opentutorial.org 11. 최후의 문법 속성 & img * 속성 : 이미지 삽입 태그 src: source. 이미지 출처 width: 이미지 너비 무료 이미지: https://unsplash.com/ko 아름다운 무료 이미지 및 사진 | Unsplash 어떤 프로젝트를 위해서든 .. 2023. 10. 1. 생활코딩 WEB1 - HTML & Internet 정리 1 (1~7) 생활코딩 1. 수업 소개 2. 프로젝트의 동기 누구나 사람들 앞에서 1시간 동안 이야기할 기회가 있다면 대중 앞에 설 때의 공포는 사라진다. 3. 기획 무언가를 만들기 전에 무엇을 만들 것인지 구상하는 과정이 필요 이를 '기획'이라 한다. 4. 코딩과 HTML 왼쪽: 기계가 하는 일 Application App Program Webpage Website 오른쪽: 사람이 하는 일 Code Source Language * HTML의 장점 - 쉽다 - 중요하다 * 웹의 장점 - public domain 5. HTML 코딩과 실습환경 준비 Visual studio code 6. 기본문법 태그 * 태그 @@ : bold @@@ : underline 7. 혁명적인 변화 내 인생은 태그를 배우기 전과 후로 나뉜다.... 2023. 10. 1. [Machine Learning]교차검증 (Cross-validation), K-fold Cross-validation, LOOCV (Leave-one-out cross-validation) LOOCV (Leave-one-out cross-validation) 은 k-fold cross-validation의 한 경우로, 각 fold가 단 한 개의 샘플만을 포함한다. 한 표본에 대한 예측을 위해 나머지 표본으로 모델을 훈련하는 방식 주어진 표본의 수만큼의 모델 훈련 필요 전체 훈련데이터를 사용하는 것과 가장 유사한 결과를 도출 * 과정1. 데이터셋의 각 샘플이 한 번 씩 test set으로 사용됨.2. 나머지 샘플들로 모델을 훈련시키고, 선택된 하나의 샘플로 모델을 검증3. 데이터셋에 있는 모든 샘플에 대해 과정 반복4. 모든 샘플에 대한 테스트 결과의 평균을 통해 모델의 전반적 성능을 평가 [Reference]고려대학교 데이터학습과지능 2023. 9. 28. 안녕하세요 열심히 해보겠습니다. 2023. 9. 26. 이전 1 2 3 4 5 다음