About

人のキャリアにやたらケチつける人の3つの特徴



同年代の人とキャリアの話をすると、やたら他人にケチつける人が多くて、なんか悲しいですね。そういう人ってある程度共通の特徴がある気がするのでまとめてみました。


1. 自分のものさしでしか人を測れない人



自分の価値観でしか世界を見れず、他人の視点で何が幸福か考えられないひとが多いです。一般職をバカにする総合職とか、大企業ディスりするベンチャー界隈とか、逆もまた然り。みっともないです。


選択肢の良し悪しなんて、個人が何にプライオリティを置くか次第なんだから、自分のいいと思ったものが他人にとって良いはずがありません。自分のものさしでしか相手を見れない人の中に、キャリアにケチをつける人多い気がします。


2. ほとんどの選択肢はトレードオフであるという自覚がない人


選択肢のほとんどが、何かを得ようとすると、何かを失うことになるという大原則を知らないタイプ、もしくは知っていても相対化できない人です。


自分にとってベストな選択肢も、必ずメリットデメリットはあります。それに無自覚で他人のキャリアにあ~だこうだいう人が多いです。


人にケチつけるタイプは、自分、相手の歩んでいるキャリアのメリット、デメリットを言語化しないまディスる傾向があると思います。相手にとってベストな選択肢にも、何かしらメリットとトレードオフであることには変わらないので、自分の選択肢のトレードオフを知らないまま(言語化できないまま)相手のキャリアにケチつけるの人が多いです。


3. 基本的に自分の人生に不満を持っている人



自分の人生に不満を持っている人です。ケチつける人ってたぶん自分の人生に不満を持っているから、それの裏返しで他人にケチつけてるんじゃないかなと思います。防衛機制で言えば正当化に当たると思います。人のキャリアにケチつける人って、だいたい自分のキャリアに不満持っているひとじゃないと他人のキャリアにケチなんてつけないんじゃなかいかなぁ。



他人がどんな人生歩もうが、究極本人幸せならなんでもいいのになぁなんて思います。死ぬほど働いて市場価値高めたければそれでいいし、その日暮らしで風俗につぎ込む人生もそれはそれで面白いだろうし。外野があーだこーだ言うのは、なんかなぁ...と思う次第です。それより相手のものさしを知ろうとすることのほうがよっぽど大事なんじゃないかなぁ。




スポンサーリンク

金がないのに自腹で5000円払ってブログのFacebook広告をうってみた - 結果を数字で検証してみる -

金がないのにFacebook広告を無駄に運用してみた




こんにちは、新卒で金がないのに引っ越しで金を使い果たしたDAIです。


今回は、せっかくブログ収益が4万円を突破したので、もっとスケールさせるためにFacebook広告を利用してみようと思います。はじめて利用したので、その時調べたことの覚書と、効果検証の結果をまとめていきます。バズ型のブログでFacebook広告を運用してみました。

目次

  • Facebook広告の効果(他記事参考)
  • 今回利用するブログと記事(The Academic Times)
    • 特徴
    • 過去の実績
  • Facebook広告
    • 費用
    • 期間
    • ターゲティング
  • 目標数値
    • いいね数
    • シェア数
    • アクセス数
    • 広告収益
  • 最終結果
  • 分析


スポンサーリンク

若者はもっとSNS中毒になるべきだと思う




フォロワー数やいいね数を気にしている若者は、本当にみっともないのだろうか。


SNS中毒になっている若者を、おっさんがディスる記事をよく見かける。「承認欲求の塊」とかなんだとか。僕は感情的にはとても納得できるし、確かに目の前にそういう人がいたら、気持ち悪いと思う。

しかし、今の時代、みっともないどころか、これからは超大事だなぁと思った出来事があった。


うんこしながらリツイートして5000円稼ぐインフルエンサー


先日、僕の好きな2chの管理人、ひろゆき氏の書評記事を書いて、ポストした。

『無敵の思考 ---誰でも得する人になれるコスパ最強のルール21』ひろゆきの書評を書いてみた

さて、今回読んだのは「無敵の思考」という本です。いままでひろゆき氏が対談などで言ってきたことを、一冊の本にまとめています。非常に読みやすくて、ひろゆき節がさく裂していてとても面白かったです。その中でも、特に面白かった部分を引用しながら、書評を書いていきたいと思います。

それからちょうど一カ月後、本人からそのポストがリツイートされた。





彼のリツイート後、僕の書評記事を紹介したツイートは100RTされた。そしてそれに応じて、Google広告は1000円収益化し、アマゾンで紹介した本は5冊売れた。

一方、きっと彼の本が1200円程度だったので、ひろゆき氏は印税で一冊1000円くらい儲かったのだろう。


僕が彼の記事を1200円で買って、彼の書評を1時間かけて書いた。そして儲けたお金が1000円程度。それでも収支200円のマイナスだ。それに対してひろゆき氏は、きっとトイレでうんこでもしながら自分の本の名前をエゴサーチして、その本の記事を見つけてRTしただけで5000円稼いだのだ。


もう一度言おう。彼はうんこしながらボタン一つで5000円稼いだのだ。しかも彼はこの本には一切時間をかけず、過去話した内容を編集者にまとめてもらっただけだと言っている。特に労力を使わなくても、自分の影響力をお金に変換しただけなのである


枯れない社会関係資本で変換される経済資本



本題に戻る。
よく、フォロワー数を気にしていたり、いいね数を気にしている若者はみっともないという記事を見かける。しかし本当にそうなのだろうか。


フォロワー数は超大事だと思う。影響力がある人は、今の時代お金になる。影響力一つで、うんこしてても5000円稼げるのだ。それに、一度気づいた社会関係資本は、永遠に経済資本に変換できるし、しかも社会関係資本は減らないのだ。


社会関係資本を定量化したらフォロワー数


今の時代、こういう枯れない社会関係資本は定量化される。それがいいねとフォロワー数だ。だから若者はいいね数やフォロワー数を気にしたほうがいいんじゃないかなぁなんて思ったし、公教育でYoutuber育成講座でも導入すればいいのではないかと思った。

スポンサーリンク

【Python初心者向け】データの取得・操作・結合・グラフ化をStep by Stepでやってみる - pandas, matplotlib -



今回はデータの取得、整理、グラフ化までをすべてPythonを使ってやってみたいと思います。利用するのはPandasで、これさえあればデータの取得、整理、グラフ化までを全部行ってくれます。Step by stepで見ていきましょう。

目標物


働き方改革等、労働生産性について最近はよく議論されています。これに対して教育がどれほど関係しているのでしょうか。今回はPISAの教育データと、PISAの労働生産性データを相関分析するというシチュエーションを想定して、やってみます。
目標としては


  • 2015年度世界の労働生産性と数学学力の相関係数を取得し、散布図で示す
  • 続いて国語データを取得し、労働生産性と読解力データの散布図を示す


です。さっそくやってみましょう。

手順


  1. データの取得
    1. read_csv
  2. データの操作
    1. 必要な列だけ取得
    2. 重複する項目名の変更
    3. 条件に一致した値のみを取得する
    4. データを結合
    5. 結合したデータをCSVで保存
  3. データの描画
    1. 相関係数の取得
    2. Matplotlibで散布図を作成
  4. データの追加
    1. PISA国語データの取得
    2. 結合
    3. グラフ描画


データセット(CSV)としては以下のものを用意しました





スポンサーリンク

『Pythonによるスクレイピング&機械学習 開発テクニック』レビュー

『Pythonによるスクレイピング&機械学習 開発テクニック』を読了しました。



Pythonによるスクレイピング&機械学習 開発テクニック BeautifulSoup,scikit-learn,TensorFlowを使ってみよう』について、レビューします。


Amazonの紹介によると

機械学習の重要性は、日々高まっているものの、いったいどのように実務に取り入れたら良いのかという声を聞くようになりました。
本書では、実際にデータの集め方から、機械学習を活用するところまで、実践的なPythonのサ ンプルコードで紹介します。

と書いてありました。Pythonを利用して、データを集めて整理するところから始められる参考書はなかなかなかったので、これは!と思い『Pythonによるスクレイピング&機械学習 開発テクニック』を購入しました。実際に買ってみて試したうえでレビューしていきたいと思います。




目次


  • 買った経緯
  • こんな人におすすめ
  • 本の内容
  • できるようになったところ

買った経緯


私はもともと趣味でエクセルを使って、教育のオープンデータ分析をしていたのですが、どうしてもHTMLからデータを取ってくるのが面倒で、調べてみるとスクレイピングという技術を使えばわりとできそうだとわかりました。スクレイピングについてはこちら



「Webスクレイピングとは何ぞや?」という疑問が浮かんできたので調べてみた。 - おしい県でWebに携わって働く人のブログ

最近よく聞く、、、わけではありませんが、なんとなく自分の中で「Webスクレイピング」について知りたくなったので、ググったりして調べてみました。



調べてみるとデータを扱ったり機械学習に関してはPythonをよく使うみたいで、ちょうど両方扱っているみたいなので、購入しました。


ちなみにこの本を購入した時点では、ノンプログラマではありません(*HTML、CSS,
JS、jQuery、Rubyを1年学習済み)でしたが、Pythonは書いたことがありませんでしたので、ProgateのPythonコースと、ドットインストールのPythonコースを全部学んで、キャッチアップしてからスタートしました。

Progate(プロゲート) | Learn to code, learn to be creative.

Progateはオンラインでプログラミングを学べるサービスです。プログラミングを学んでWEBアプリケーションを作ろう。


Python 3入門 (全31回)

データ解析や機械学習などにも利用される、シンプルなオブジェクト指向型言語であるPythonについて見ていきます。

こんな人におすすめ


上記に書いたような、データサイエンス・機械学習に興味があるような人や、Pythonを使って何かやってみたいという人にはおすすめです。実際まったくの初心者でも、コードを移していくとスクレイピングできるコードを自分で作ったりできるようになります。


ただし、全くのプログラミング初心者では難しいので、基本的なHTML、CSS、Javascript、jQueryが理解できる程度の知識が必要です


というのも、どうしてもスクレイピングを利用するとなると、HTMLの力が知識が前提となってしまうからです。それを操作するCSS、Jsの知識は必要となります。無料でできるので、さきほどのProgateやドットインストールでキャッチアップしましょう。


また、僕のように機械学習エンジニアに興味があるくらいのレベルであれば、実際にコードを書いて学ぶことができるのでおすすめですが、機械学習はマシンのスペックゲーになることが多かったので、機械学習をちゃんとやりたい場合はちゃんとしたマシンを用意しないとだめですね。僕はノートパソコンで試したら死亡しました。


本の内容



目次はこんな内容となっています。(一部省略)


  1. クローリングとスクレイピング
    1. データのダウンロード
    2. Beautiful Soupでスクレイピング
    3. CSSセレクタについて
    4. リンク先をまるごとダウンロード
  2. 高度なスクレイピング
    1. ログインが必要なサイトからダウンロード
    2. ブラウザを経由したスクレイピング
    3. スクレイピング道場
    4. Web APIからのデータ取得
    5. Cronと定期実行なクローリング
  3. データソースと書式・設定
    1. テキストデータとバイナリデータ
    2. XMLの解析
    3. JSONの解析
    4. YAMLを解析する
    5. データベースについて
  4. 機械学習
    1. 機械学習とは
    2. 機械学習のはじめの一歩
    3. 画像の文字認識
    4. 外国語文書の判定
    5. サポートベクターマシンとは
    6. ランダムフォレストとは
    7. データの検証方法について
  5. 深層学習に挑戦してみよう
    1. 深層学習とは何か
    2. TensorFlowのインストール
    3. JupyterNoteBookのすすめ
    4. TensorFlowの基本をおさえよう
    5. TensorBoardで可視化しよう
    6. TensorFlowで深層学習に進もう
    7. Karasでもっとらくに深層学習をしよう
  6. テキスト解析とチャットボットの作成
    1. 日本語解析(形態素解析)について
    2. Words2Vecで文章をベクトル変換しよう
    3. ベイズの定理でテキストを分類しよう
    4. MLPでテキスト分類しよう
    5. 文書の類似度をn-gramで調べよう
    6. マルコフ連鎖やLSTMで文書を作成しよう
    7. チャットボットの作成
  7. 深層学習を実践してみよう
    1. 類似画像の検出をしよう
    2. CNNでCaltech101の画像分類をしよう
    3. 牛丼屋のメニューを画像判定しよう
    4. OPEN CVで顔認識
    5. 画像OCR・連続文字認識に挑戦しよう
  8. APPENDIX 作業の準備と環境構築
    1. Dockerで環境構築しよう
    2. Python + Anacondaで環境を整える


Pythonの環境構築から、スクレイピング、データの操作、APIの利用、機械学習等データサイエンスの基礎部分に関する内容が、ソースコードとともにかなり丁寧に解説されています。Amazonの本の紹介でもあった通り、Web上のデータをスクレイピングし、データベースに格納、必要なデータを機械学習でコーディングするという一連の作業がこの本を通して学べたと思います。


また、Python初心者も想定して、親切にもWindows、Mac両方で環境構築の説明ランがあります。WindowsとMacの両方の環境構築方法が記述してあります。なので、初心者でも十分進められると思います。最悪環境構築につまったら、Cloud9というWeb上で環境構築を行えるプラットフォームを利用すればなんとかなります。

たった3分で?!初心者向けPython開発環境構築3ステップ | 侍エンジニア塾ブログ | プログラミング入門者向け学習情報サイト

こんにちは!インストラクターの井上(@InoIno_iesa )です。 Python学習したい!そう思っても プログラミングを始めるところにすらたどり着けない という方もいらっしゃるかと思います。 実際、プログラミングの「環境構築」は中級者でも数時間・数日はまってしまう可能性のあるものです。 しかし、そんな 環境構築を一瞬で終わらせる方法 があります! ...


できるようになったこと、この本の知識を活かして試したこと


この本を使ってできるようになったこととしては、seleniumを利用した基礎的なスクレイピングと、APIの利用、pandasとsqliteを利用してデータベースをいじり、matliolibやnumpyでグラフ描写する力、cronを利用してスクレイピングを自動で定期実行などですね。


実際に試したこととしては、TinderのAPIをPython上で利用して、Facebook上の既婚者が利用していないか調べたり、そういう情報をデータベースに格納したりとか....

PythonでTinderのAPIをいじる

PythonでTinderのAPIを利用する TinderにはAPIがあるそうなので、さっそく利用してみた。 PythonはCloud9というクラウドで環境構築してある。 TinderのAPIを使うために必要なのはFacebookのアクセストークンと、Pynderというモジュール。 Pynderを準備 pythonでapiをいじるためのpynderをinstall $ sudo pip install pynder インストールされたみたい。 インストールされたか確認 apiいじるコードをgithubからコピペする https://github.com/charliewolf/pynder import pynder session = pynder.Session(facebook_id, facebook_auth_token) session.matches() # get users you have already been matched with session.update_location(LAT, LON) # updates latitude and longitude for your profile session.profile # your profile.


PythonでTinder APIを使ってネトストとサイバーナンパ師やってみた

Python TinderのAPI Pynderを利用する こんにちは。突然ですが、ナンパしたい。僕は陰キャラなので、歌舞伎町でナンパに繰り出すことなんてできない。 そういえば前回、 PythonでTinderのAPIをいじる で書いた通り、PythonでTinderのAPIをいじれた。原理的には自分のアカウントのFacebook access ...

pythonでsqlite3を利用してデータを挿入する

受験・教育学、心理学、社会学、プログラミング・書評とかで記事書いてます。


Cloud9上で実装したPythonスクリプトをHerokuにディプロイしてして定期実行する手段を生み出したり...


【Pythonで定期処理】 Cloud9を利用して、Seleniumでherokuから定期実行する

Python Cloud9を利用して、定期処理をherokuから行う Cloud9というIDEを利用して、PythonからSeleniumを利用し、あるサイトでいいねを自動化するプログラムを作った。 これを定期実行を行いたい。検索してみると、crontabを使えば定期実行ができるようだが、cloud9上では実行できないらしい。 ほかの代替案を考えたとき、 heroku ...


定期実行プログラムをかけるようになったから、Twitterのフォロワーを自動いいねしたりするプログラムを書いたり


【Python twitter】tweepyを利用してlike、follow、removeを実装したbotを作る

なぜやるか ・ブロガーをやっているので、自分のファンになってくれる可能性があるユーザーをフォローしたい。 ・そのユーザーのコメントにいいねして、後で見返したい。フォローしてきたスパムアカウントはりむーぶしたい。 ・毎日自分の手でやるのは社会人になってしまったので時間がない。ということで自動化したい。 - python 3 - Cloud9を利用 - すでにherokuにpythonプロジェクトをdeploy済みです。 deployまでは下の記事を参考にしてください! やりたいこと 0. とりあえずtwitter apiを使ってログインしてみる 1. それぞれのユーザー名を取得し、そのユーザーのコメントにいいねとフォローを行う 2. 自分のタイムラインからツイートを10つ取得し、上から下までいいねを行う 3.フォロワー数が100未満のユーザーはすべてりむーぶする 4. heroku schedulerを利用して、上記の機能を定期処理で自動化する 0. pythonのtwitter apiであるtweepyを利用してログインしてみる APIを利用して、ツイッターからの情報とるためには、最初に情報を準備しておかなければならない。詳しいことはこの記事に書いてあるので、参照してほしい。 # Tweepyライブラリをインポート import tweepy # 各種キーをセット CONSUMER_KEY = 'xxxxxxxx' CONSUMER_SECRET = 'xxxxxxxx' ACCESS_TOKEN = 'xxxxxxxx' ACCESS_SECRET = 'xxxxxxxx' auth = tweepy.OAuthHandler(CONSUMER_KEY, CONSUMER_SECRET) auth.set_access_token(ACCESS_TOKEN, ACCESS_SECRET) #APIインスタンスを作成 api = tweepy.API(auth) PythonでTwitterを使う 〜Tweepyの紹介〜 http://kivantium.hateblo.jp/entry/2015/01/03/000225 Tweepyでpythonについて呟いたアカウントをフォローしまくってみた - 駆け出し眼鏡のプログラミング道場 http://taikomegane.hatenablog.jp/entry/2017/07/08/151110 1.


わりとやりたいことができるようになった感じですね。


アマゾンで最近見たら書店より少し安くなっていたので、

  • Pythonに興味がある
  • データサイエンスに興味がある
  • しかもなんか意味あることを実践的にやりたい
という人のは強くおすすめします!



スポンサーリンク

Read more↓

書評














教育











キャリア

プログラミング・ライフハック

About me


・ 最近The Academic Timesというアカデミック専用メディアを立ち上げました。