우커머스를 활용하시면서 영어로 되어 있으면 사용자들이 많은 불편함을 가질 수도 있습니다.

상품에 add to cart 로 표시되는 것을 한국인 언어인 한글로 표시 하도록 하겠습니다.

장바구니 아래의 결과물부터 확인하시죠.








워드프레스, 그누보드5 등 다양한 것을 사용하였습니다. 이번기회에 워드프레스를 적극적으로 활용하기 위해 글을 남깁니다.

처음 사용하다 보니깐 미숙한점이 많습니다. 

이제 영어 좀 그만보고 싶어서. 한글로 변환하는 법을 소개드리고자합니다.


우커머스 플러그인은 쇼핑몰 구성도 잘 되어있고, 결제 연동이 원활한 것으로 알려져 있습니다. 또한, 많은 테마와 플러그인의 호환성을 봣을 땐, 간편히 구축할 수 있습니다.


우커머스를 플러그인을 통해 처음 설치하였으면, 기본언어가 영문으로 제공되어 있습니다. 

윗 화면이 아닌 Add To Cart로 보여지게 됩니다. 아무래도 한글에 비해서 고객들에게 불편함?까지는 아니지만, 친숙하지는 않을 것같아 UI측면에서 한글화를 시키도록 하겠습니다.



오늘 현재 최신버전에서 우커머스 번역은 53% 완료 되었습니다. 홈페이지를 참조하시면 얼만큼 번역이 완료되었고, 언제 업데이트 됬는지를 알 수 있습니다.


우커머스 파일은 계속 버전이 업그레이드 되어 번역의 수정 또는 추가작업이 지속적으로 필요하다.

번역은 우커머스 개발팀이 주도하지 않고 각 커뮤니티에서 자발적으로 번역작업을 수행한다.


위와 같은 환경과 맞물려 한글화가 모두 지원되지 않을수 있습니다. 하지만 개인의 노력을 더 하여 추가적으로 번역파일을 자신이 번역할 수 있습니다. 올려주시면 저도 감사히 사용하겠습니다...ㅎㅎ


그러면 이제 진행 법을 소개 시켜 드리겠습니다.


1. 번역 파일 준비하기


우커머스는 번역파일을 워드프레스 translate 사이트 에서 운용합니다.

https://translate.wordpress.org/projects/wp-plugins/woocommerce 

를 복사하셔서 이동하시면 각 언어들의 번역 완료 퍼센테이지가 나옵니다.


Ctril + F 를 활용하여 Korean을 검색하셔서 손 쉽게 이동하도록 합니다.


Korean 을 클릭 합니다. 


클릭 후 이동한 페이지에서 2번쨰 란에 보이는 Stable을 다운받을 것입니다.


여기서 Stable(Latest Release)를 클릭하여 이동합니다.



위 화면처럼 하단의 “Export” 를 클릭하여 파일로 다운로드 받아야 하며 Portable ~(.po) 파일과 (.mo) 파일을 각각 다운로드 받습니다. 


총 2개의 파일을 다운 받습니다. 


이후 파일명을 수정하셔야합니다.

복사 붙여넣기를 추천드립니다. 파일명이 다르면 적용이 안됩니다...


wp-plugins-woocommerce-stable-ko.mo  => woocommerce-ko_KR.mo


wp-plugins-woocommerce-stable-ko.po    => woocommerce-ko_KR.po


(대소문자와 “-“등의 입력과 확장자등을 주의해서 꼭 위와같은 이름으로 업로드하여야 정상적으로 적용됩니다!)


이제 파일 위치를 워드프레스 설치 디렉토리 /wp-content/languages/plugins/폴더 안에 업로드해야 합니다. woocommerce-ko_KR.mo, woocommerce-ko_KR.po 파일 모두 위 디렉토리에 업로드합니다.


이제 확인 해 보시면 위에 제 홈페이지처럼 한글로 바뀐것을 확인 하실 수 있습니다.


PowerPoint에서 이 Embed 코드로 이루어진 비디오를 삽입할 수 없다는 오류 발생시!!


파워포인트 메뉴의


[삽입] - 동영상 버튼을 눌러 추가 할 경우 아래의 오류 버튼이 뜰 수 있습니다.


제가 현재 사용하고있는 PowerPoint 정보를 알려드리겠습니다.


PowerPoint 2013 (15.0.4420.1017)  32비트 를 활용하고 있습니다.





이런 경고창을 보실 수 있습니다.


먼저 급한대로 해결 방법부터 나열하도록 하곘습니다.


Youtube 사이트에서 해당 동영상의  공유하기 버튼을 클릭합니다.


주소 말고 IFRAME의 코드를 복사를 합니다.


Iframe의 코드를 Embed 코드로 바꿔주는 작업이 필요합니다. 따라서 저는 구글에 


iframe to embed 로 검색을 했더니 여러 변환 사이트들이 나왔습니다.


개인적으로 활용한 사이트는 가장 처음에 나온 ㅎㅎ

https://nuridol.net/ut_convert.html

주소입니다.


아까 복사한 iframe코드를 복사하고 

Convert를 클릭하면 embed코드로 변환됩니다.


embed코드를 복사해서


동영상 삽입의 youtube가 아닌 3번째 란인 embed코드 부분에 입력하고 Enter를 클릭하시면
동영상이 들어가게 됩니다.


아 참! 복사할 때... 감사히 잘 사용은 했지만.. herf부분은 복사할 필요가없습니다~


예시로

<div><object width="560" height="315"><param name="movie" value="https://www.youtube.com/v/zlskcG6CLAY?version=3"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="https://www.youtube.com/v/zlskcG6CLAY?version=3" type="application/x-shockwave-flash" width="560" height="315" allowscriptaccess="always" allowfullscreen="true"></embed></object></div>

이 부분 까지만 복사하셔도 충분합니다.


-------------------

최신 파워포인트 버전에서는 그냥 들어가집니다... 업데이트 자주 합시다! ㅎㅎ

추가 업데이트 경로는


클릭



추가 하였습니다. 


일단 Pyhton 에서 requests를 이용한 예제이기 때문에,

설치를 하도록 하겠습니다.

OS는 

linux 16.04버전입니다.

root 권한이 아니신 분들은

sudo pip install requests

명령어를 사용하시면 됩니다.

Pip Install Requests

To install Requests, simply run this simple command in your terminal of choice:

$ pip install requests



설치가 완료되었습니다. 예제 실행화면입니다.


아래에 추가 글 남기겠습니다.



웹 페이지를 긁어 내려면 먼저 페이지를 다운로드해야합니다.

라이브러리를 활용하기 위하여 Requests를 먼저 설치 한 것입니다.

 Python requests 라이브러리를 사용하여 페이지를 다운로드 할 수 있습니다. 웹 서버에 GET 요청을 보내고, 

웹 서버는 주어진 웹 페이지의 HTML 콘텐츠를 다운로드합니다. 

라이브러리를사용하여 만들 수있는 여러 가지 유형의 요청이 있으며 그 중 GET은 하나뿐입니다. 자세한 내용은 API를 확인하십시오.

API확인 경로는 : https://www.dataquest.io/blog/python-api-tutorial/              입니다.


외국 블로거의 github입니다. ㅎㅎㅎ

간단한 샘플 웹 사이트 http://dataquestio.github.io/web-scraping-pages/simple.html을 다운로드 해 봅니다. 

먼저 request.get 메소드를 사용하여 다운로드해야합니다.


구글로 했다가.. content보이시죠?? 엄청 많은 것... 나중에 분석하면 수정해서 다시 올리겠습니다.. ㅎㅎㅎ



일단 Get하는 python 소스입니다.


Python 으로 먼저 진입하시고


import requests

page = requests.get("http://dataquestio.github.io/web-scraping-pages/simple.html")



실행 한 후 Response 객체를 얻습니다. 이 객체에는 페이지가 성공적으로 다운로드되었는지 나타내는 status_code 속성이 있습니다.

확인 명령어는



page.status_code



결과는 200이 나오면 정상입니다.



status_code가 200이면 페이지가 성공적으로 다운로드되었음을 의미합니다. 여기서는 상태 코드를 완전히 다루지는 않지만 2로 시작하는 상태 코드는 일반적으로 성공을 나타내고 4 또는 5로 시작하는 코드는 오류를 나타냅니다. (추후 발생하면 분석하고 수정 글 올리겠습니다.)



content 속성을 사용하여 페이지의 HTML 콘텐츠를 인쇄 할 수 있습니다.

확인 명령어는


page.content


소스 코드는 간단한 결과를 확인할 수 있습니다.


하지만 구글로 한다면??... 더 분석이 필요하게 됩니다.ㅎㅎ 


오늘은 일단 여기까지 하고 추후 글을 더 나누도록 하겠습니다.

'Computer_IT > Python' 카테고리의 다른 글

No module named _tkinter, please install the python-tk package  (0) 2017.06.08

인터넷 검색 및 데이터 수집을 하고 싶다...

라는 생각에 기술을 알아보는 중 

크롤링이라는 기술이 있다고 한다.


크롤링이란 무엇 일까?

Web Scraping(웹 크롤링) 이란?

[펌] 네이버 블로그
(http://m.blog.naver.com/potter777777/220605598446)

컴퓨터 업계에서 일하는 사람들은 "크롤링", "크롤러", "크롤링 알바" 이런 말을 들어본 적이 있을 겁니다. 저도 친구들이나 선배들이 회사에서 크롤링하는 알바를 했다는 경험담을 많이 들었습니다. 개인 프로젝트를 하면서 혹은 팀 프로젝트를 하면서 크롤링 할 일이 있었습니다. 하지만, 어떻게 하는지 몰랐죠.

 여러 사람들에게 조언을 구하고 구글의 힘을 빌려서 제가 원하는 정보를 파싱해서  DB에 넣는 데에 성공했습니다. 원하는 데이터가 잘 나와서 눈물이 앞을 가리더군요. 사람들에게 스크린샷을 찍어서 보내면서 "내가 한거라고 ㅠㅠ" 3일 밤을 새면서 고생했어요. "잘했어... (토닥토닥)" 아 논지를 벗어 났군요.

우리가 흔히 부르는 웹 크롤러 크롤링의 정식명칭은 'Web Scraping' 입니다. 외국 자료를 찾으려고 하니까 'Web Crawling' 보다는 'Web Scraping' 이라는 용어를 자주 사용하더군요.

"Web scraping is a computer software technique of extracting information from websites."
-> 웹 크롤링이란 컴퓨터 소프트웨어 기술로 웹 사이트들에서 원하는 정보를 추출하는 것을 의미합니다.

 웹 크롤러란 인터넷에 있는 웹페이지를 방문해서 자료를 수집하는 일을 하는 프로그램을 말합니다. 이때 한 페이지만 방문하는 것이 아니라 그 페이지에 링크되어 있는 또 다른 페이지를 차례대로 방문하고 이처럼 링크를 따라 웹을 돌아다니는 모습이 마치 거미와 비슷하다고 해서 스파이더라고 부르기도 합니다. 엄청난 분량의 웹문서를 사람이 일일 구별해서 모으는 일은 불가능에 가깝습니다. 때문에 웹 문서 검색에서는 사람이 일일이 하는 대신 이를 자동으로 수행해 줍니다. 

예를 들면, "멜론 사이트에서 현재 음악 차트 순위 자료가 필요하다."고 해보겠습니다. 물론, 사이트에 가서 일일이 보고, 엑셀에 값을 넣고 정리해서 상사에게 보고하는 사람들도 있을 겁니다. 하지만 이 데이터를 다른 프로그램이나 무언가를 만들 때 사용하려면 DB 형태로 저장해 놓을 필요가 있습니다.

카테고리, 순위, 발매일, 제목, 앨범제목, 그룹이름 등등... 차트에도 여러 정보가 있겠죠.

 웹은 기본적으로 HTML 형태로 되어 있는 건 다들 아실 겁니다. 저희가 눈으로 볼 수 있다면, 해당 정보가 HTML 형태로 어떻게 보여지는지도 '페이지 소스 보기' 또는 '개발자 검사' 로 볼 수 있습니다. 이런 소스들은 보통 개발자들이 어떤 정형화된 형태로 관리하고 있습니다. 때문에 규칙이 생기죠. 이런 규칙을 분석해서 우리가 원하는 정보들만 뽑아오는 것을 웹 크롤링 작업이라고 생각하시면 됩니다.

 한국에서도 웹 크롤링 할 일이 많기 때문에 알바를 구하는 구인 광고도 본 적이 있고 네이버, 다음, 구글 등등 여러 포털 사이트 블로그에 크롤링 하는 방법을 치면 나오는 정보들도 많습니다. 가장 많이 나오는 것이 Python으로 크롤링 하는 소스들이 제일 흔하죠. 현재 파이썬이 가장 떠오르는 언어이죠? 하지만 저는 파이썬보다는 현재 루비와 레일즈를 주로 공부하고 있어서 루비로 크롤러 개발을 할 수 있는 방법을 찾아보았습니다.

 저는 다음 블로그 포스팅부터 몇 차례에 걸쳐서 제가 주로 포스팅하는 언어인 'Ruby' 와 'Rails' 그리고 'nokogiri' 라는 잼(gem)을 이용하여 크롤링하는 방법에 대해서 포스팅 할 예정입니다. 한국에서 nokogiri로 스크래핑하는 것에 대한 방법을 기술한 자료는 그렇게 많지 않았습니다. 일주일 내내 찾아도 제대로 된 것이 2개? 1개? 정도 였고 정보도 통틀어 10개를 넘지를 않았습니다. 그래서 루비와 노코기리로 크롤링 하는 방법을 찾는 분들을 위해서 노코기리 잼 분석부터 레일즈로 띄우는 방법까지 자세히 포스팅하겠습니다.

자세한 웹 크롤링에 대한 정의는 아래 '위키 피디아를 참조'하시기 바랍니다.
https://en.wikipedia.org/wiki/Web_scraping

그리고 외국 자료들이 더 정확하고 유용하니, 웹 크롤링 웹 크롤러로 검색하기 보다는 "Web Scraping with something" 이런 식으로 검색하여 원하는 정보를 찾아서 활용하시기 바랍니다.



위 블로그 분의 좋은 이야기를 듣고, 

내가 필요한 Scraping을 만들기 위해


Python으로 작성을 시도해 볼려고 한다.

SBS 로봇기자, 나리

지난 9일, 제19대 대통령 선거가 치러졌습니다. 많은 분들이 인터넷에서 선거 관련 기사를 찾아보셨을 텐데요. 여러분이 읽은 기사들 중 일부는 사람이 아닌 ‘로봇’이 썼다는 것, 혹시 알고 계셨나요? 과연 어떤 기사인지, 어떻게 로봇이 기사를 썼는지 살펴보도록 해요.

SBS는 19대 대선에서 인공지능(AI)를 활용한 로봇 기사를 선보였습니다. 나리(NARe)로 명명된 로봇기자는 인공지능 로봇기자(News by Artificial intelligence Reporter)의 약자로, SBS 뉴스와 서울대 로봇저널리즘팀(이준환, 서봉원 교수)이 공동 개발했습니다.

사람보다 빠르고 정확했다

인공지능 로봇기자 나리(NARe)는 중앙선거관리위원회가 실시간으로 제공하는 데이터를 계산하고 분석해 자동으로 기사를 작성했습니다. 실시간 전국 투·개표율과 지역별 상세 투·개표 상황 등 특정한 조건이 달성됐을 때 유형별로 수십 개에 달하는 기사를 순식간에 작성해 냈습니다. 데이터를 바탕으로 사실을 전달하는 ‘스트레이트 기사’는 문장 구조에 맞게 데이터만 배치하면 작성이 가능합니다.

출처: SBS 뉴스 기사

나리가 작성한 기사는 사람이 일일이 수치를 계산하고 입력해 기사를 작성하는 것보다 훨씬 신속하고 정확했다고 하는데요. 문장 역시 로봇이 썼다고 믿을 수 없을 만큼 자연스러웠습니다. 나리가 쓴 기사는 SBS 뉴스 홈페이지와 포털사이트 등에서 확인할 수 있습니다.

기자 알파고, 점차 늘어날 것

사실 인공지능 기자가 신문기사를 쓰기 시작한 것은 이미 몇 년이 되었습니다. 미국의 LA 타임스, 로이터, AP통신, 블룸버그 등의 외신은 일찍부터 로봇 기자 시스템을 도입했습니다. LA 타임스는 지진 발생 보도에 로봇을 활용하는데요, 미국 지리조사청이 지진 정보를 감지하고 데이터를 제공하면, LA 타임스의 로봇이 데이터를 바탕으로 즉시 기사를 작성합니다. 2014년 3월 LA에서 강도 4.4의 지진이 발생했을 때, LA 타임스는 8분 만에 속보를 낼 수 있었습니다.

출처: LA타임스

앞으로 단순하거나 건조한 기사는 로봇 기자가 작성하는 것으로 대체될 텐데요, 다만 기자라는 직업이 사라지지는 않을 것입니다. 로봇 기자가 데이터를 기반으로 한 기사를 작성할 때, 인간 기자는 기획 기사나 심층 기사, 논설 등을 작성할 수 있을 것입니다. 기사 작성 시 필요한 정보 수집과 분석을 인공지능에게 맡기고, 고품질 기사로 경쟁력을 높이는 사례도 늘어날 것으로 전망됩니다.

출처 : http://naver.me/GgMopgEx

안드로이드 스튜디오 빌드 중 갑자기 에러가 발생되었다. 

에러 문구는 아래와 같다.



"...Crunching Crunsher ...png failed"


클린 프로젝트 및 리 빌드를 해도


같은 에러가 반복된다...



나의 에러 수정 방법은 매우 간단하였다...


폴더의 폴더의 폴더로 들어간 경로를 단순하게


폴더 길이를 줄여서 짧게 바꾸고, 빌드 시켰더니 해결..


ex : 


from:

D:/Android/Apps/AndroidStudioProject/AppName

to

D:/Android/AppName


에러의 원인이 Android studio 에서 파일명이 일정길이 넘어가면 참조를 할 수 없는 것 같다.

리눅스에서 Zip 압축 해제

 


데비안 / 우분투에서는 다음 명령을 사용하여 zip / unzip 설치할 있습니다 :

sudo apt-get install zip unzip

 

파일이나 디렉토리 (photos.zip) 압축을 풀려면 다음을 사용하십시오 :

unzip photos.zip

 

 

 

 

압축해제 시 옵션들

unzip 명령을 사용할  주의해야   가지 옵션이 있습니다.
우리가 photos.zip에서 하나의 image1.png 원한다고 가정  봅시다.

unzip photos.zip image1.png

 

파일을 다른 디렉토리 (./directory/) 압축을 풀려면 어떻게?

unzip photos.zip -d ./directory/

 

zip 파일의 무결성을 확신하지 못하고 테스트하려는 경우 -t 플래그를 사용할  있습니다

unzip -t photos.zip

 


zip 파일에 파일을 나열하려면 간단한 명령을 사용하면됩니다.

unzip -l photos.zip

 


문제가 생기면, 압축 해제 man 페이지는 참고 자료가 됩니다.

man unzip

일단 mariaDB로 작업을 하던 중...


워드프레스 등 기타 mysql로 방향을 바로 가맄는 것에 대해서.. 정확한 분석을 못한 결과


차라리 기존 의 mysql 로 재설치 하는 방법이 빠르다는 판단이 들었다..


그래서


혹시나 설치 잘 못 하시거나 삭제 후 재 설치하시는 분들을 위해


재설치하는 명령어를 올리겠습니다.


root권한이 아닌신분들은


명령어 앞에


sudo


를 붙여주세요.


apt-get autoremove

apt-get remove --purge mysql*

apt-get autoclean

deluser mysql

rm -rf /var/log/mysql

rm -rf /var/lib/mysql

rm -rf /etc/mysql






 마이에스큐엘 설치 방법입니다.


갑자기 영어가 깨지는 바람에... 한글로 ㅠㅠ mysql..마이에스큐엘 왜 이러지...ㅋㅋㅋ



·         sudo apt-get update

·          

·         sudo apt-get install mysql-server

구글의 인공지능 플로우, tensorflow를 활용하여 나도 인공지능을 만들어보자.


구글의 오픈소스인 tensorflow 알파고의 시작 점이라고 볼 수 있겠죠??


텐서플로우를 활용하기 위해 설치부터 하겠습니다.


제가 경험해본 그대로 올리기 때문에 부족한 점은 언제나 남겨주시면,


저도 다시 한번 해보고 말씀 드리겠습니다.


저는 리눅스 ubuntu 16.04 서버 버전 및 클라이언트 버전에서 설치를 해봤습니다.


물론 두가지 모두 설치 방법은 동일합니다.


가장 간단한 방법으로 설치하겠습니다.


tensorlfow.org 로 들어가면 여러가지 설치 방법이 나오지만 저는 pip설치 방법을 활용하겠습니다.


가상으로 설치하는 방법, 도커, 쿠다 등의 방법을 제시해주고 있지만, 개인적으로 pip설치가 가장 원활하고 쉽기 때문에 선택하였습니다.


지금부터 설명하겠습니다. 


1. 가장 먼저 업그레이드 부터 실시하겠습니다. 최신버전은 거의 대부분 오류 or 버그를 수정해서 나오기 때문입니다.ㅎㅎㅎㅎ 개인적인 소견 ㅋㅋㅋ



sudo apt-get install python-pip python-dev

pip version이 낮다고 경고문구가 나온 적이 있기 때문에, 방지하는 차원에서 최신버전으로 업그레이드 실시.


pip install –upgrade pip



2.  제 PC는 내장 그래픽 이기 때문에, 별도의 그래픽 카드가 없고, 사용하는 python2.7이기 때문에 첫 번째 명령어 사용


  3.0 일 경우에는 두번째 명령어를 실행해주시면 됩니다.


혹시! 좋은 그래픽 카드를 가지고 계신다면, 3 ,4 번째 명령어를 실행해주시면 됩니다.

$ pip install tensorflow      # Python 2.7; CPU support (no GPU support)
 $ pip3 install tensorflow     # Python 3.n; CPU support (no GPU support)
 $ pip install tensorflow-gpu  # Python 2.7;  GPU support
 $ pip3 install tensorflow-gpu # Python 3.n; GPU support

 

3. 끝.




설치는 항상 install 끝.인것처럼 별거없이 끝났습니다.

하지만 활용도는 너무 넓고 우수한 tensorflow 다음에 또 글을 남기겠지만, 저랑 함께 발전해 가보시죠.

다음글을 항상 기다려주세요. 감사합니다.


다시 본론으로 들어와서,


설치가 너무 간단하죠? 언제나 그렇듯 제대로 설치되어있는지 한번 확인해보고 싶으시죠?






Python 안으로 들어가, tensorflow를 호출 합니다.

python 3.0 버전이신 분들은

python 대신에 python3 아시죠??

$ python
>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow!')
>>> sess = tf.Session()
>>> print(sess.run(hello))

출력이 완료되었습니다. 결과로,

Hello, TensorFlow!





python을 배운적은 없지만, 모든 컴퓨터 언어가 그렇듯이, 각 언어의 따른 문법적 특징이 있는 것 같습니다. ㅎㅎ


인터넷 서버를 만들기 위해서는 가장 기본적인 아파치와 DB가 필요하겠죠??


바로 본론으로 들어가서 apach2와 MYSql 대신 Maria-DB를 설치하는 방법에 대해서 설명하겠습니다.


1.  아파치 설치를 위해 apt-get을 이요합니다.


명령어는


sudo apt-get install apache2


root 권한으로 로그인 하신분들은 sudo를 별도로 안 해도됩니다.

하지만 root권한으로 작업할 경우 더 신중히 명령어를 실행하셔야합니다. 이번 명령어는 아니고요. 추후 작업을 하실 때 이야기 입니다.



설치 되었는 지 보는 방법입니다. 보통은 익스플로러 창을 열어서 확인할 텐데

아직 저는 포트포워딩을 안해서 살펴볼수가 없습니다...

아시다 싶이 저는 원격으로 ssh를 활용하여 명령어를 실행하기 때문에 ㅠㅠ 

일단은 버전 확인을 통한 설치여부를 확인했습니다.




2. 이어서 PHP설치를 하겠습니다.


명령어는 


sudo apt-get install php


Y






3. 이어서 아파치 와 php를 연동시켜주는 모듈을 설치하겠습니다.


sudo apt-get install libapache2-mod-php7.0


php 버전을 꼭 확인하고 진행하시기 바랍니다.


추후 필요에 따라 php모듈들을 설치 하실 수 있습니다.



4. 이어서 mysql 대신 mariadb-server를 설치 하도록 하겠습니다.


추후에 요청에 따라서 mysql 설치 방법도 올리도록 하겠습니다.


하지만 최근에 mysql 과 mariadb사이의 차이점을 거의 느끼기 힘들다는 이야기가 있고, maria-db로 가는 추세가 보이기 때문에 설치법을 올리도록 하겠습니다.


명령어


sudo apt-get install mariadb-server


Y




maria-db는 초기 설정이 안되어 있기 때문에 ... 초기설정도 해주어야 합니다.

이 부분에서 mysql과 살짝 불편하다고 느낄 수도 있지만, 초기 설정은 어떤 프로그램이든 설정해야 하므로,

진행을 하도록 하겠습니다.


명령어

sudo /usr/bin/myslq_secure_installation


보이시죠? mysql .. maria_db가 mysql를 만들었던 분이라는 이야기가 있지만,, 저는 잘모르겠습니다. ㅎㅎ

일단은 경로를 설정을 하여 수정하도록하겠습니다.


password 부분에서

n

을 입력하면 사용자 password과 동일하게 진행이 됩니다.


나머지 부분들은 추후 다시 명령어를 통해서 바꿀 수 있기 때문에


기본설정으로 Enter 를 연속으로 눌러줍니다.



Maria_db 설치도 끝!


그러면 mysql 명령어를 통하여


DB를 사용하도록 합시다~.



+ Recent posts