paper study 02 - 텍스트마이닝 기반 사용자 경험 분석 및 관리: 스마트 스피커 사례
·
Data Science/Paper
Today's Paper 텍스트마이닝 기반 사용자 경험 분석 및 관리: 스마트 스피커 사례 - 연다인, 박가연, 김희웅 (2020) Information Systems Review, 2020. 1. Abstract 인공지능을 활용하여 다양한 콘텐츠를 검색, 이용할 수 있는 대화형 음성 기반 서비스를 제공하는 기기 데이터를 축적할수록 정교하고 최적화된 서비스 제공 가능 따라서 공격적 마케팅을 통해 플랫폼 구축 노력 But, 스마트 스피커 사용 빈도는 월 1회 미만이 전체의 3분의 1을 차지함 (출처: 미국 VoiceBot(2018)) → 지속적 이용활성화와 만족도 증진을 위해 사용자 경험 강화 필요 본 연구는 사용자가 직접 작성한 실제 리뷰데이터를 수집하여 텍스트마이닝 분석 후 결과를 해석함 2. 평가 기..
[이상탐지 예측] 필요개념: LSTM-AE 등
·
Data Science/DL
보호되어 있는 글입니다.
자연어처리를 위한 1D CNN
·
Data Science/DL
보호되어 있는 글입니다.
데이터 채굴하기 1편: 웹 스크래핑
·
Data Science/Python 기초
정오늘의 공부 내용, 웹 스크래핑 참고 유튜브: 나도코딩 https://youtu.be/yQ20jZwDjTE 이번 게시물은 웹 스크래핑을 하기 위한 이론편이다. 웹 스크래핑? 웹 페이지에서 내가 원하는 부분만 떼어오는 것 웹 크롤링이랑 뭐가 다른데? 웹 크롤링은 페이지 내의 링크들을 따라가면서 모~든 내용을 가져오는 것. 마구잡이로 가져옴 데이터를 채굴하는 현장에서 매우 빈번하게 쓰이는 기술이나, 크롤링/스크래핑으로 가져온 데이터는 휘발성이 강하며 변화가 잦다. 웹의 구성 1. HTML : 집의 뼈대 2. CSS : 인테리어 3. JS (JavaScript) : 사람의 다양한 활동(살아있게 하는 것) → 창문 여닫기, 불 끄고 켜기 등 HTML Hyper Text Markup Language : elem..
[방문자수 예측] Kaggle 데이터 및 LSTM, GRU 모델을 활용한 상권(식당) 방문자 수 예측
·
Data Science/DL
보호되어 있는 글입니다.
ML 3. 시계열분석 - AR, MA, ARIMA
·
Data Science/ML
방문자수 데이터 분석을 하는데 RNN, LSTM도 중요하지만 ARIMA도 한 번 내가 가진 데이터에 적용해볼 수 있지 않을까하여 ARIMA를 더 공부해보기로 했다. 가보자고! 전반적인 출처는 https://assaeunji.github.io/statistics/2021-08-23-arima/ 시계열 분석 시리즈 (2): AR / MA / ARIMA 모형, 어디까지 파봤니? 이번 포스팅은 실전 시계열 분석: 통계와 머신러닝을 활용한 예측 기법 책과 Forecasting: Principles and Practice책을 기반으로 AR, MA, ARIMA 모형을 정리하고자 합니다. 제목은 “어디까지 파봤니”로 거 assaeunji.github.io 입니다... ARIMA Autoregressive Integre..
차트 시각화 - 시계열 그래프 그리기
·
Data Science/coding pratice
https://joyfuls.tistory.com/54 시각화 """ from datetime import datetime # 패키지 - 모듈 (이름 같음) import pandas as pd # csv file read import matplotlib.pyplot as pl" data-og-host="joyfuls.tistory.com" data-og-source-url="https://joyfuls.tistory.com/54" data-og-url="https://joyfuls.tistory.com/54" data-og-image="https://scrap.kakaocdn.net/dn/dSJ36n/hyQE3Z37yl/LyLsBOtJvgAnyixFl1l9bK/img.png?width=597&height..
Python numpy: np.log1p()란 뭘까?
·
Data Science/Python 기초
포스코 빅데이터 프로젝트의 데이터 전처리 부분을 봤는데, 연속형인 결과변수에 np.log1p() 함수를 취해준 것을 보았다. 왜 np.log1p()를 해준 것일까? https://velog.io/@gjtang/np.log1p%EB%A5%BC-%ED%95%98%EB%8A%94-%EC%9D%B4%EC%9C%A0 np.log1p()를 하는 이유 np.log1p()를 하는 이유 velog.io ※ 참고 로그 큰 값을 작은 값으로 표현하기 위해 사용된다. 예를 들어, NN이나 logistic regression의 경우, binary classification의 마지막 레이어에서 activation function으로 sigmoid를 활용한다.(softmax는 multinomial classification) 이건..