Here is a nice little snippet that allows you to log in to a web form and then proceed to another page to get Dynamically generated files.

First you must create a file in tmp or any directory you choose and make sure it is writable for making your cookie.


$login = "https://domain.com/login.php";
$url = "https://domain.com/statistics.php";

$cookie = "/tmp/domain.txt";

$reffer = "https://domain.com/login.php";



// these are were we write our data to locally

$logfile = "domain.log.1"; // first file to create

$logdir="logs";



// are query strings. this is an array but you can set up to pull from a database if needed



$query = array(1=>"UserServiceId=1111&Action=CSV",

"UserServiceId=1112&Action=CSV",

"UserServiceId=1113&Action=CSV");



//login page

$ch = curl_init();

curl_setopt($ch, CURLOPT_URL, $login);

curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, FALSE);

curl_setopt($ch, CURLOPT_HEADER, 0);

curl_setopt($ch, CURLOPT_POST, 1);

// Action is set because this paticular form needs it to process to the next page

curl_setopt($ch, CURLOPT_POSTFIELDS, "Email=Username&Password=Password&Action=Login");

// may differ from form to form, View source of page to see what is needed

curl_setopt($ch, CURLOPT_COOKIEFILE, $cookie); // get file

curl_setopt($ch, CURLOPT_COOKIEJAR, $cookie); // write to file

curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1); // process page

curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);

curl_exec ($ch);



curl_close ($ch);



// now for each query string we cURL



foreach($query as $page=>$csv){

$ch = curl_init();

curl_setopt($ch, CURLOPT_URL, $url);

curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, FALSE);

curl_setopt($ch, CURLOPT_HEADER, 0);

curl_setopt($ch, CURLOPT_POST, 1);

curl_setopt($ch, CURLOPT_POSTFIELDS, $csv); // get file

curl_setopt($ch, CURLOPT_COOKIEFILE, $cookie);

curl_setopt($ch, CURLOPT_COOKIEJAR, $cookie);

curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);

curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);

$result.= site_name($id).substr(curl_exec($ch), 44); // append data and organize by site name

}

curl_close ($ch);



//Error check

// br tag = HTML br tag but stupid MT won't write it out

if ($result == NULL) {

echo "Error: br tag";

echo curl_errno($ch) . " - " . curl_error($ch) . "br tag";

}


,


내가 운영하는 http://sshan.net 에는 실시간환율 페이지가 있다.


이것은 환율에 관련된 이미지들이다. 각각의 주소는 
http://218.38.18.162/gif/all/2b97001.gif  
http://218.38.18.162/gif/all/2b97031.gif 
http://218.38.18.162/gif/all/2b97003.gif 
http://218.38.18.162/gif/all/2b97023.gif 
이다.

환율은 시시각각으로 변하기 때문에 자동으로 reload 시켜주면 좋을 것 같다. meta refresh tag 을 이용해서 같은 것을 구현할 수도 있지만 이 경우에는 홈페이지를 전체를 다시 reload 하기 때문에 부하가 더 걸린다. javascript 를 이용해서 이미지만 reload 시키자. 아래는 소스이다.

아래 붉은 부위 중에 i<5 는 img 가 4개 파일이기 때문에 5 이고 60000 은 60 초 즉 1 분마다 업데이트 해주라는 이야기이다.


<HTML>

<HEAD>

<script LANGUAGE="JavaScript">

<!--

function reloadImg(){

uniq = new Date();

uniq = "?"+uniq.getTime();
var i;

for (i=1;i<5;i++)
{
 var target='imgToLoad'+i;
 newImage1 = document.images[target].src;

 index1 = newImage1.indexOf("?", 0);

 if(index1 > 0){

 newImage1 = newImage1.substr(0, index1);

 }

 document.images[target].src = newImage1+uniq;

}
setTimeout('reloadImg()', 60000);

}

// -->

</script>

</HEAD>

<br>

<body onload="reloadImg()">
<table width=100% align=center cellspacing=0 cellpadding=0 border=0>
<tr><td align=center>

<table width=700 align=center cellspacing="0" cellpadding="0" border="1">

<tr><td align=center width=175>

<img src = http://218.38.18.162/gif/all/2b97001.gif  border=0 width=175 height=153 name="imgToLoad1">

</td><td align=center width=175>

<img src = http://218.38.18.162/gif/all/2b97031.gif  border=0 width=175 height=153 name="imgToLoad2">

</td><td align=center width=175>

<img src = http://218.38.18.162/gif/all/2b97003.gif  border=0 width=175 height=153 name="imgToLoad3">

</td><td align=center width=175>

<img src = http://218.38.18.162/gif/all/2b97023.gif  border=0 width=175 height=153 name="imgToLoad4">

</td></tr>

</table>

</body></html>


,


하도 영어 공부를 안해서 이거라도 들어야겠다고 해서 듣는게 POWER ENGLISH 이다.

근데 시간을 맨날 놓쳐서 돈내고 EBS 에 들어가서 영어를 들어야 하는데 로그인도 해야되고 불편하다.

아래는 리눅스에서 EBS 영어 라디오를 듣기위해 만든 스크립트이다.

cf) 비슷한 작업을 윈도우에서도 가능하다. mp3gain , lame , mplayer 모두 윈도우용 파일이 있다. http://lame.sf.net , http://mp3gain.sf.net , http://www.mplayerhq.hu 에서 다운 받아서 배치파일을 만들어야 한다.

cron (Ubuntu 의 경우 Configure Scheduled Tasks) 에 시간 맞춰서 등록해 놓으면 자동으로 mp3 파일로 저장해 놓는다.

사용하기 전에 mplayer , mp3gain , lame 을 설치해야 한다.

sudo apt-get install lame
sudo apt-get install mp3gain
sudo apt-get install mplayer

아래는 shell script 이다. 저장하고 나서 속성을 실행가능으로 바꿔줘야 한다.

#!/bin/bash
year=`date +%Y`
month=`date +%m`
day=`date +%d`
sleep 30
/usr/bin/mplayer mms://219.240.37.11/L-FM_300k -ao pcm:file=/var/www/ebs/easy/ebs.wav &
sleep 1200
kill %1
/usr/bin/lame -h /var/www/ebs/easy/ebs.wav /var/www/ebs/easy/ebs.mp3
mv /var/www/ebs/easy/ebs.mp3 /var/www/ebs/easy/EBS-$year-$month-$day.mp3
rm -f /var/www/ebs/easy/ebs.wav
/usr/bin/mp3gain -g 10 /var/www/ebs/easy/EBS-$year-$month-$day.mp3

,


Google Analytics 의 분석 결과를 보면 Bounce rate 가 나온다.



뭔지는 모르지만 첫 화면에까지 나오는 것을 보면 중요한 자료임은 틀림이 없다.

Bounce rate 는 한마디로 웹페이지 들어왔다가 보지도 않고 그냥 나간 사람의 비율이다. 페이지를 넘겨 보지도 않고 클릭도 안하고 나간 사람의 비율이다. bounce rate 따지는 기준은 정확하게 정해진게 없어서 회사마다 조금씩 다르다. 기본적으로 들어왔다가 그냥 나가는 사람의 비율을 체크하는 지표이다.

만약에 이효리 로 검색해서 싸이트에 들어갔는데 옥동자 홈페이지가 나왔다 보자. 남자들은 바로 나갈 것이다.

10 명 중에 9명이 바로 창을 닫아버렸다면 bounce rate 는 90% 이다.

bounce rate 가 낮아야 좋은 홈페이지다. 블로그는 50% 이상으로 높은 경우가 많은데 대개 그 주제만 보고 나가기 때문에 그렇다. 따라서 블로그 운영하는 사람은 bounce rate 가 너무 낮아도 실망할 필요는 없다.
,


홈페이지에 누가 얼마나 왔다 갔는지 궁금하세요 ?
누가 어떤 경로로 왔는지 궁금하시죠 ?
Google 의 Analytics 는 최고의 홈페이지 방문 통계툴이다.


항상 느끼는 건데 구글은 정말 대단한 회사이다.
모든 회사들이 포탈이다 뭐다 하면서 복잡한 플래쉬에 이런 저런 정보로 도배를 했을 때에도 구글은 심플(simple)함 그 자체이다.


얼마나 단순 명료한가?

검색만 하는 사람은 딱 좋은 환경이다. 결과도 잘나오고 지저분하지 않고 빠르게 뜨기 때문에 구글은 최고의 검색엔진이다.

결국 구글은 포탈로 돈을 안벌고 검색엔진만으로 엄청난 광고 수입을 올리고 있다. 부럽다. 나도 이런거나 만들껄...

구글이 검색이 잘 되는 것은 홈페이지 정보를 정확하게 얻어내기 때문이다. 여기에 관련된 2가지 중요한 툴이 있다.


1) 구글 웹마스터 (webmaster)
웹마스터는 싸이트 내용을 효율적으로 수집하는 작업을 도와준다. 여기에 적절한 양식대로 등록하면 구글 검색엔진에서 검색이 더 잘된다. (구글봇의 크롤링이 효율적으로 된다.) 한마디로 내 홈페이지 여기 저기에 어떤 자료가 있으니 가져가세요라고 안내해주는 작업이라고 보면 된다.

2) 구글 어낼리틱스 (analytics)
홈페이지의 통계와 정보를 수집해 준다. 오늘의 주제다.


보통 홈페이지 방문 통계하면 카운터만 생각한다. 내 홈페이지도 3달전까지만 해도 카운터만 달았다. 우연히 웹서핑하다가 analytics 를 본 순간 탄성이 터졌다. 쵝오!!


Google Analytics 는 홈페이지 방문객의 많은 정보를 제공한다.

국가, 지도상의 위치, 새로 온사람인지 이전에 방문했던 사람인지, 몇번째 방문인지, 언어, 방문객수, 중복된 방문객을 제외한 방문객수, 한사람당 페이지를 얼마나 넘기고 가는지, 홈페이지에 몇분 있다가 나가는지, 홈페이지 들어왔다가 보지도 않고 바로 나가는지 아닌지 (Bounce rate), 브라우저는 어떤 것을 쓰는지, 운영체제는 리눅스인지 윈도우인지, 화면 해상도는 무엇인지, 어떤 검색엔진을 타고 들어왔는지, 어떤 키워드를 입력해서 방문했는지, 모뎀인지 고속인터넷인지 등등등

정말 많은 것을 제공한다.


이건 내가 가지고 있는 도메인들이다.여기 안보이는 것까지 합쳐서 6개 의 domain 을 가지고 있다. 이 중에서 http://sshan.net 의 통계를 보자. 참고로 sshan.net 은 경제 관련 싸이트이다. 돈을 많이 벌고 싶다면 와서 열심히 읽으시라. ^^  컴퓨터만 열심히 해서는 가난한 일꾼으로 끝나는 경우도 많으니까...




요건 첫 화면이다. Dashboard 라고 나오는게 첫 화면이고 여기에는 내가 주로 보고 싶은 지표만 골라 놓고 볼 수 있다. 내가 매일 체크하는 지표는 Visit, Pageview, Bounce Rate, Avg. Time, New Visit 이 정도다.

아마 다른건 다 알겠지만 Bounce rate 이게 몰까요 ??? ㅋㅋ 나도 이게 뭔지 알려고 한참 찾았다.
한마디로 웹페이지 들어왔다가 보지도 않고 그냥 나간 사람의 비율이다. 페이지를 넘겨 보지도 않고 클릭도 안하고 나간 사람의 비율이다. bounce rate 따지는 기준은 회사마다 조금씩 다르지만 기본적으로 들어왔다가 그냥 나가는 사람의 비율을 체크하는 지표이다.

만약에 이효리 로 검색해서 싸이트에 들어갔는데 옥동자 홈페이지가 나왔다 보자. 남자들은 바로 나갈 것이다. 10 명 중에 9명이 바로 창을 닫아버렸다면 bounce rate 는 90% 이다. bounce rate 가 낮아야 좋은 홈페이지다. 블로그는 50% 이상으로 높은 경우가 많은데 대개 그 주제만 보고 나가기 때문에 그렇다. 따라서 블로그 운영하는 사람은 bounce rate 가 너무 낮아도 실망할 필요는 없다.



site 에 들어온 사람이 머문 시간이다. 여기 보면 마지막 날이 11:40 이고 그 다음은 5:50 이다. 전전날 통계가 11분 40초이고 전날 통계는 5분 50초라는 이야기이다. 5분 50초 이상하게 짧다. 전날까지 거의 대부분 11분 정도인데... 이건 버그인 듯 하다. site 시간 뿐 아니라 모든 analytics 의 전날 통계(bounce rate 등등 포함)가 부정확하다. 하지만 하루 지나면 정확하게 바뀐다.



absolute unique visit 라는 것은 중복된 방문 통계를 제외하는 것이다. 브라우저를 새로 열고 홈페이지를 방문하면 방문자 통계가 중복해서 잡힌다. 하지만 absolute unique visit 는 IP 를 확인하기 때문에 정확하다.

Bounce rate 는 아까 설명했는데... 표를 보면 이상하다.. 내 홈페이지는 bounce rate 가 80% 대였다가 갑자기 3~4% 정도로 바닥을 기고 있는 것을 볼 수 있다. 평균은 10.5% 이다.

이건... 내가 analytics 코드를 넣는 위치를 잘 못 넣었기 때문이다. analytics 코드는 웹페이지가 열릴때마다 .. 즉 페이지를 넘길 때마다 다시 load 되는 위치에 넣어야 한다.

요즘 많이 쓰는 원프레임 방식의 웹페이지는 별 문제 없다. 하지만 프레임을 나누는 경우에 클릭할 때마다 analytics 코드가 실행되게 해주어야 한다. 안그러면 analytics 가 잡아내지 못한다. 복잡한 이야기이지만 요즘 쓰는 tistory 나 daum, naver 블로그는 모두 원프레임 방식이다. 원프레임이 뭔지 모르겠다고 ?? 이것까지 설명하려면 너무 글이 길어진다. "홈페이지 프레임" 으로 검색해 보도록 !!



내가 analytics 하고 나서 제일 큰 수확이다. 사용자의 해상도를 알 수 있었다. 의외로 1024 x 768 이 많다. 나만 그런 줄 알았는데 다른 사람의 analytics 분석 결과도 1024 x 768 이 제일 많다.... 따라서 홈페이지를 1280 x 1024 같은 해상도로 최적화 했다가는 1/3 의 독자를 잃는 수가 있다. 웹페이지는 접근성이 중요하다. 나는 이것을 보자마자 sshan.net 을 1024 x 768 에 최적화 시켰다.



explore 를 많이 쓰지만 firefox, chrome, safari, opera 도 많이 쓴다. camino 는 나도 첨 듣는다. 참고로 나도 firefox 를 주로 쓴다. 속도가 예술이다.


아래 사항은 꼭 알아두는 것이 좋다.

- 통계자료는 새벽 0 시에 업데이트 된다. 따라서 오늘 설치했다면 통계는 내일 0 시에 집계될 것이다. 설치 후에 바로 안된다고 불평하지 말자.

- 기본으로 제공하는 javascript 로 설치하면 검색엔진이 전부 "search" 로 나온다. 이는 우리나라 검색엔진 등록이 안되있는 문제이다. 이 문제를 해결하려면 내가 작성한 글을 보시라. 50 군데 영문싸이트를 돌아다니면서 내린 최종 결론이며 잘 동작한다.

http://prettygom.com/entry/Google-Analytics-에-검색엔진-추가하기

- analytics 결과는 전날 데이터가 몇몇 데이터(bounce rate, visit ... )가 부정확하다. 하루 지나면 교정이 된다.

- analytics 코드는 페이지를 넘길 때마다 실행되는 위치에 넣어야 된다. 그래야 analytics 가 페이지를 넘겼는지... 이사람이 나갔는지.. 멍하고 있는지 등등을 알 수 있다.


오늘도 바빠 죽겠는데 길게 썼다. 이건 취미 생활인데... ㅋㅋ 하여튼 구글은 대단한 회사이다.


구글은 여러가지 다른 선물도 주고 있다.

google reader
google office
google memo
google earth
google gmail

 이중에 안쓰는 것 있으면 써보길 바란다. 감탄이 절로 나올 것이다.

,


요즘 블로그에 보면 트랙백이라는게 있다 이게 뭔가 ??

내가 여러 글을 읽어 보아지만 이해가 잘 안되었다.
http://nanum2.tistory.com/383
http://lawcher.com/149

그나마 이게 제일 이해하기 쉽게 써 있다.
http://cafe.daum.net/jigump/6OfD/1009


아래는 블로그에서 흔히 쓰는 댓글 양상이다.


글 아래에 제목 없이 글만 단다.


그런데 댓글을 길게 달고 싶다면 어떻게 할까 ???
그러니까 아래처럼 말이다. 아래는 다음 AGORA 의 예이다.



남의 블로그에 이렇게 답글을 달 수 없다. 블로그는 대개 개인 공간이라서 주인장만 글을 쓸 수 있다.
주인장이 답글을 쓸 수 있게 허락을 해주더라도... 티스토리 블로그에서 남기려면 티스토리 가입하고 네이버 블로그에서 남기려면 네이버 ID 를 가입해야한다. 오 마이 갓 !!!

이래서 생긴게 트랙백이다.
  
위에 있는 다음 AGORA 처럼 제목이 있는 긴 댓글을 자신의 블로그에 글을 쓴다.
그리고 원문의 트랙백 주소를 자신의 글에 적어주면 원문에 자신의 답글이 써졌다는 것이 전달된다.


아래는 내 글에 달린 트랙백이다.


내글에 대해서 "서울비의 알림" 이라는 제목으로 "Google Analytics 에 검색엔진 추가하기" 라는 글을 남겼다.
실제로 클릭해서 들어가보면... 똑같은 글이 나온다.


아래 도표는 http://cafe.daum.net/jigump/6OfD/1009 에서 가져온 것이다. 매우 쉽게 잘 그려 놓았다. 참고하시라.




,


 스마트 프라이싱이란 노출되는 광고가 효과적인가 아닌가에 따라 구글이 인센트브 또는 징벌을 가하는 것이라고 하겠다. 대부분 구글 애드센스에서 2가지가 문제가 되는데 1) 부정 클릭 2) 스마트 프라이싱 이다.

일단 스마트 프라이싱(smart pricing)의 정의는 아래와 같다.

<스마트 프라이싱의 정의>

스마트 프라이싱이란 쉽게 말하면 광고의 단가 조정이며
상세하게 말하면 계정마다 클릭당 지불을 차별화하여 지급하는 기능입니다.
이 기능은 2004년 4월부터 작동하고 있었다고 합니다.
광고주는 광고를 클릭하는 사람이
자신의 상품을 구매하여 매출을 올리는게 목적입니다.
근데 애드센스는 자신의 사이트에 들어온 사용자가 광고를 클릭만 하여도
사이트 운영자에게 수익을 줍니다.
그래서 광고클릭만 하고 물건을 사지 않는다면 광고주는 손해를 보게 됩니다.
계속적으로 클릭수는 많은데 구매률과 매출연결이 낮아지고 적어진다면
구글에서는 클릭으로 인한 애드센스 수입단가를 광고주를 배려하여
자동으로 다운 시켜버립니다.

 스마트 프라이싱을 어떻게 대응하느냐는 말이 많은데

1) 노출되는 광고를 줄여라 - 노출은 많고 클릭이 낮으면 단가가 낮아진다.
2) 블로그의 질을 올려라

 인데 1) 번에 대해서는 의견이 분분하다.

 스마트 프라이싱의 원리상 return on investment (RIO) 즉... 투자 회수율에 대해 이야기 하는데 ...

 문제는 나의 지식상 웹상에서 투자회수율(RIO) 를 알아내는 것은 불가능에 가깝다. 광고주에게 일일히 거래가 되었는지 물어보기도 힘들고 더구나 어떤 site 에서 온 손님이 구매를 했는지를 알기는 광고주의 web site 까지 관리하면 모를까 불가능하다.

 따라서 분명 다른 방법으로 스마트 프라이싱에 대한 데이터를 얻으리라 생각된다.

 가장 유력한 것은 Google Analytics 를 이용한 감시이다.


http://www.liewcf.com/blog/wp-images/google-analytics.jpg

위의 그림처럼 구글은 analytics 를 통해 웹사이트의 정보를 정밀하게 얻는다.

광고 때리는 우리 싸이트와 광고주의 싸이트 양쪽에 analytics 분석툴이 설치되어 있다면 광고가 효과적으로 돌아가는지 알 수 있다.

예를 들어 우리 싸이트에서 "홍삼" 으로 클릭해서 광고주의 "홍삼원" 싸이트에 들어갔다고 하자.
만약 소비자가 "홍삼원"에 전혀 관심이 없는데 실수로 클릭 했다면 바로 나올 것이다.

이렇게 바로 나오면

1) bounce rate - 이 수치는 싸이트에 들어가서 클릭없이 바로 나오게 되면 올라가는 수치이다. 한마디로 전혀 관심없이 바로 나오는 경우 올라간다.
2) page view - 1 페이지 밖에 안 보았다.
3) average time - "홍삼원" 싸이트에 10 초나 접속했을래나?

이런 수치들이 엉망으로 나오게 된다. 추측컨데 구글은 이러한 데이터를 몇달정도 모아서 광고 단가를 정해주는 것으로 생각된다.

결국 bounce rate 가 낮고 page view 는 많고 site 에 머문 시간이 길어야 효과적으로 광고한 것이기 때문이다. 웹써핑 한 사람이 물건을 샀는지 안 샀는지는 사실 알 길이 없다.


여기까지 스마트 프라이싱에 대한 나의 추측이다. 동의하는가 ??? 동의한다면 추천 클릭 꽝~!! ^^
,


컴퓨터를 좀 안다고 생각했던 저도 rss 라는 것을 어제 알았습니다. 한마디로 각종 블로그나 기사를 골라읽기 위한 통신 규약이라고 생각하시면 됩니다. 비슷한 것으로 "atom" 이라는 것이 있습니다.

예를 들면 아고라의 "미네르바", 다음블로그의 "상승미소", 네이버블로그의 "드루킹" 님의 글을 읽는다고 합시다. 보통은 3개의 site 를 모두 즐겨찾기를 해놓고 한군데씩 들어가서 봅니다.

하지만 rss 를 이용하면 3 저자의 글을 한 화면에서 볼 수 있습니다 !!! 글도 시간 순서대로 정렬되어 있습니다.

rss 를 읽으려면 rss reader 라는 것이 있어야 하는데 쉽게 사용할 수 있는 rss reader 로는 google reader 가 있습니다. 이외에도 hanrss 등이 있습니다. rss 로 검색하면 나와요.

1) 일단 google.com 에 가입하시고.
2) http://reader.google.com 으로 들어갑니다.



왼쪽 위에 보면 구독 추가라고 되어 있습니다. 여기에 구독하고 싶은 rss 주소를 적어주면 됩니다.

3) rss 주소는 어디서 얻을까요 ?? "미네르바" 님의 rss 를 찾아보겠습니다. 아고라의 미네르바 님의 아이디를 클릭하면 아래처럼 나옵니다.

토론 2 옆에 보면 아까 보여드린  이 있습니다. 이걸 클릭하면 주소가 나옵니다.

이렇게 얻는 미네르바님의 rss 주소는
http://agora.media.daum.net/profile/rss.xml?key=yzcyxX5kuoE0&group_id=1

입니다. 이 주소를 2) 번에서 보여드린 google reader 의 구독 추가란에 적어주시면 됩니다.

현재 거의 모든 블로그 및 뉴스 기사 등이 rss 를 지원합니다. 잘 찾아보면 마크를 찾을 수 있습니다.

4) 결과입니다. 글이 잘 정렬되어 있습니다.




rss 로 많은 site 를 등록해서 본다면 시간도 절약하고 아고라의 알밥들도 피해갈 수 있으리라 생각됩니다. 몇몇 까페에서는 사람들이 죽어라 퍼나르고 있는데 이런 수고를 할 필요가 없습니다.

사실 저도 rss 를 모르고 열심히 비슷한 기능이 있는 홈페이지를 만드느라 고생 좀 했습니다. 진작 알았으면 이런 수고를 덜었겠죠. 그래도 많은 글들이 많이 있는 편리한 site 입니다. 많이 놀러와주세요.
http://sshan.net
,


Analytics 로 결과를 보면 검색엔진이 전부 "search" 로 나온다.
이는 네이버 / 다음 과 같은 검색 site 가 등록이 안되어 있어서 발생하는 문제이다.
검색엔진을 등록하면 해결할 수 있다.

google 의 help 를 보면

pageTracker._addOrganic("name_of_searchengine","q_var");

로 등록하라고 한다. name_of_searchengine 은 검색 엔진의 고유한 주소이고 q_var 는 검색 키워드가 저장되는 변수명이다.


예를 들면 엠파스의 경우 "keyword" 로 검색버튼을 누르면 주소창에

http://search.empas.com/search/all.html?z=A&q=keyword&x=0&y=0&qn=&s=&f=&bd=&bw=&tq=

라고 뜨는 것을 볼 수 있다. search.empas.com 이 검색 엔진 주소이고 &q=keyword 에서 q 가 검색값인 "keyword" 가 저장되는 장소이다. 따라서

pageTracker._addOrganic("empas","q");

를 추가하면 된다.

한가지 문제가 더 있는데 구글은 search 가 들어가는 주소를 "search"라는 검색엔진으로 등록하고 있다. 이것을 무시하게 만들어야 한다.

pageTracker._clearOrganic();

를 앞에 추가하자.

cf) 원래는
pageTracker._addIgnoredOrganic("search"); 만 해도 search 가 삭제되야 하는데 버그가 있는 것 같다. pageTracker._clearOrganic(); 을 추가해서 모든 검색엔진 정보를 지웠다. 이경우에는 search 엔진을 전부 등록해 주어야한다. 우리나라에서 쓰는 엔진 위주로 올렸다.


아래는 내가 쓰는 analytics 코드이다. "UA-XXXXXX-X" 부분을 자신의 것으로 바꾸어 쓰면 된다. 아래 코드를 모두 </body> tag 전에 삽입하면 인식이 된다.

ps) 아래에 UA-@@@@@@-@ 는 자신의 것으로 바꾸어야 한다.



<script type="text/javascript">
var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www.");
document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E"));
</script>
<script type="text/javascript">
try {
var pageTracker = _gat._getTracker("UA-@@@@@@-@");
pageTracker._clearOrganic();
pageTracker._addOrganic("naver.com","query");
pageTracker._addOrganic("daum.net","q");
pageTracker._addOrganic("nate.com","q");
pageTracker._addOrganic("empas.com","q");
pageTracker._addOrganic("google.com","q");
pageTracker._addOrganic("paran.com","Query");
pageTracker._addOrganic("yahoo.com","p");
pageTracker._trackPageview();
} catch(err) {}</script>



http://www.antezeta.com/blog/google-analytics-search-engines

http://www.google.com/support/googleanalytics/bin/answer.py?answer=57046

http://www.google.com/support/googleanalytics/bin/answer.py?answer=55479
,


http://mldonkey.sourceforge.net/

donkey(당나귀)는 p2p 프로그램의 대명사입니다. 많이 쓰이는 overnet 도 donkey 에서 힌트를 얻어 나왔지요. overnet 과 donkey 의 차이는 donkey 는 중앙 서버가 필요한 반면에 overnet 의 경우에는 중앙 서버가 필요없는 완벽한 p2p 라고 할 수 있겠습니다.

하여튼 donkey 는 이미 소스가 공개 되어서 emule, aMule, xMule, 푸루나 등의 clone 이 만들어졌습니다. 안의 구조는 같지만 사용하기 편하게 조금씩 바꾼 프로그램들이지요.

그 중에서 가장 특징이 있는 donkey 를 꼽는다면 주저없이 mldonkey 를 꼽겠습니다. mldonkey 는 두가지 중요한 특징이 있습니다.

1) explore 로 원격 제어가 가능하다.

다른 donkey 와 다르게 mldonkey 는 인터넷 explore 를 통해 접근이 가능합니다. 아래는 explore 에서 본 mldonkey 의 제어창입니다.



2) 사용자 계정 설정이 가능하다.

 mldonkey 내에서는 사용자 설정을 할 수 있습니다. 저희 집 같은 경우 신발장에 donkey 서버가 있습니다. 물론 mldonkey 도 설치되어 있지요. mldonkey 안에 3명의 계정이 있답니다. 각각의 사람이 접속해서 자료를 다운을 걸어 놓으면 자신의 계정 폴더에 다운로드됩니다.


 donkey 의 가장 큰 문제는 느린 다운 속도였습니다. 이 때문에 donkey 프로그램을 하루종일 켜놓는 경우가 많죠. 하지만 donkey 하나 쓸려고 컴퓨터를 하루종일 켜 놓는 것은 낭비입니다. mldonkey 가 없다면 형이랑 동생이랑 둘다 donkey 를 사용한다면 컴퓨터를 2대 켜놓아야 합니다. 하지만 mldonkey 를 쓰면 mldonkey 가 설치된 컴퓨터 한대가 계속 일을 하게 됩니다. 형/동생 계정으로 다운로드를 제어하면 되지요.

 저희 집 같은 경우 신발장에 자료 저장용 linux 컴퓨터가 있는에 이 녀석이 mldonkey 서버 역할을 하고 있습니다. 우리집 식구는 모두 mldonkey 계정이 있습니다. 일단 자료만 걸어 놓으면 하루종일 받고 있습니다. 똘똘한 놈이지요.


 


,