ブログ

  • 中国AI DeepSeek-R1が登場するとどうなる?

    AI元年といいながらいつ始まるのかなー、と首を長くして去年くらいから本格的に動いているのが見えてきてますよね。

    どこに行ってもわりとChatGPTが一番よく目に耳にする気がします。

    ちゃっぴーの愛称で慕われてることや利用者に寄り添う感じの設計がいいのか主婦層でも使っているというのを耳にします。

    そういうところから結構一般家庭にも普及して使ってみようという動きが出てる感じがしますよね。

    私も大事なことからくだらないことまで使ってます。

    そんな中で中国のDeepSeek-R1というのが登場してアメリカ対中国の構図になってくるみたい。

    DeepSeek-R1とは?

    AI業界を震撼させた中国発オープンソースモデルを解説

    中国のAI企業DeepSeek(深度求索)が2025年1月に公開したDeepSeek-R1は、AI業界に大きな衝撃を与えている最新の推論モデルです。

    一言で表すなら、「OpenAIの最新モデル『o1』に匹敵する高度な推論能力を持ちながら、オープンソースかつ極めて低コストで動作するモデル」

    本記事では、その特徴や仕組み、なぜこれほど注目されているのかをわかりやすく解説します。


    DeepSeek-R1とは何か?

    DeepSeek-R1は、単に知識を検索して答えるだけでなく、**「思考(Reasoning)」を行うことに特化した大規模言語モデル(LLM)**です。

    項目内容
    開発元DeepSeek(中国のヘッジファンド「High-Flyer」が母体のAIスタートアップ)
    特徴内部で「思考の連鎖(Chain of Thought)」を行い、論理的に問題を解決
    ライセンスMITライセンス(商用利用も含めて自由度が高いオープンソース)

    R1の凄さと主な特徴

    DeepSeek-R1が業界を震撼させた理由は、主に以下の4点です。

    1. OpenAI「o1」レベルの性能

    数学、プログラミング、論理パズルなどの複雑なタスクにおいて、現在の世界最高峰であるOpenAIの**「o1」と同等、あるいはそれ以上のスコア**を記録しています。

    • 数学: アメリカの数学競技(AIME 2024)などのベンチマークでo1に匹敵
    • コード生成: Codeforcesなどの競技プログラミング課題で高い正答率

    2. 純粋な強化学習(RL)によるトレーニング

    従来のモデルは、大量の「人間が書いた正解データ」を学習させる(SFT: Supervised Fine-Tuning)のが一般的でした。

    しかし、R1(特に初期段階のR1-Zero)は、**大量の正解データを与えず、AIに試行錯誤させる「強化学習」**によって推論能力を自律的に獲得しました。

    これにより、AIが自ら間違いに気づいて修正する**「アハ体験(Aha! moment)」のような自己修正能力**を身につけています。

    3. 圧倒的な低コスト

    DeepSeekは、R1のAPI利用料を非常に安価に設定しています。

    • OpenAI o1と比較して、約1/20〜1/50程度のコスト
    • 開発コスト自体も、米国の巨大テック企業に比べて桁違いに少ないリソースで開発

    4. 「蒸留(Distillation)」モデルの公開

    巨大なR1モデル(671Bパラメータ)の能力を、より小さなモデル(1.5B, 7B, 8B, 14B, 32B, 70B)に移した「蒸留モデル」も公開されました。

    これにより、個人のPCやノートパソコンでも、o1並みの推論能力を持つAIを動かせるようになりました。


    OpenAI「o1」との比較

    特徴DeepSeek-R1OpenAI o1
    開発元DeepSeek(中国)OpenAI(米国)
    モデルタイプオープンウェイト(公開)クローズド(非公開)
    得意分野数学、コーディング、論理推論数学、コーディング、科学、広範な知識
    思考プロセス表示される(どのように考えたか読める)非表示(要約のみ表示される場合が多い)
    コスト極めて安い(API & ローカル無料)高価
    日本語能力対応しているが、思考過程で英語や中国語が混ざることがある非常に自然

    思考プロセスの可視化について

    DeepSeek-R1は、回答の前に <think> タグで囲まれた思考ログを出力します。

    ユーザーは「AIがどう悩み、どう答えを導き出したか」をすべて見ることができます。これは透明性の観点で非常に画期的です。


    業界へのインパクト

    DeepSeek-R1の登場は、以下のような意味を持っています。

    オープンソースの逆襲

    「最高性能のAIはGoogleやOpenAIなどの巨大企業しか作れない」という常識を覆しました。

    GPU不足の緩和

    小さなサイズでも賢い「蒸留モデル」が普及することで、超高性能なGPUがなくても高度な推論タスクが可能になります。

    米中AI競争の激化

    中国のAI技術力が、特定の分野(推論・効率性)において米国のトップティアに追いついたことを証明しました。


    高性能低コストと中国おなじみの製品が出来上がったということですね。

    スマホもそうですがスペックとコスパに関しては中国製品はすごいですから、実用性は知らないけど。

    ただ、情報管理の部分については信用性低いので注意が必要ですね。

    そもそもAIに個人情報や個人を特定できるようなものを入れたりしてはいけないと思いますがなおのこと注意が必要です。

    AIを使っているつもりで自分が使われるような時代も近いかもしれない。

  • 詐欺被害にあわないように生成AIを使って一歩立ち止まってみる

    生成AIの普及がいいことだけじゃなくて悪いことも結構あります。

    皆さんも最近SNSでAIを使った副業がーみたいな投稿をよく目にすると思います。

    だいぶ前からあるにはあるんですけどXなどのSNSのアカウントを使って有料noteへ誘導するようにあやしいサイトへの導線に使っている人も多くなっています。

    Xで収益を稼げるような環境になっていることや普通のサイト運営よりも圧倒的に数字が稼ぎやすいからでしょう。

    あとは生成AIの登場により、アイディア出しが簡単になりましたからそれをもとにテンプレート化してアカウントを量産したりとか。

    まぁ私も邪魔だなーと思いつつ内容をチェックはしたりするんですよね、どういう導線を作って運用してるのかなーとか。

    先日、私が副業したい!みないなポストをするとそういうアカウントからリプライがくることあるんですよね。「在宅副業」を紹介しますみたいな。

    気になったので詳しく調べてみました。

    ここでChatGPTことちゃっぴーの出番です。

    活用している人も多いと思いますがちゃっぴーは写真に書いてある文字もちゃんと読んで回答してくれるので相手の紹介文をスクショしてちゃっぴーに送るわけです。

    たまにこの漢字なんて読むのかなーとか文脈が分かりづらいなーっていうのもだいたい説明してくれます。

    さて、さっそくちゃっぴーにスクショを送って「このアカウントは安全?」と聞いてみる。

    するとこんな回答を(ブログ用に整形してます)

    副業詐欺でよく見る特徴がいくつも当てはまっていたので、注意喚起も兼ねて共有します。


    見かけた投稿の内容

    投稿には、こんな条件が並んでいました。

    • 完全ホワイト
    • 隙間時間でOK
    • 作業30分
    • 1件2,000円
    • 月9.8万円の実績

    一見すると魅力的ですよね。でも、この「甘すぎる条件」こそが最初の警戒ポイントです。


    怪しいと感じた4つのポイント

    1. 条件が良すぎる

    「30分で2,000円」「月10万円近く稼げる」——こうした数字は、副業詐欺の典型的なテンプレートです。

    本当にそんな好条件なら、わざわざSNSで募集する必要はありません。

    2. アフィリエイトURLへの誘導

    リンク先が af-〇〇.com という形式でした。これはアフィリエイト用の短縮URLです。

    まともな在宅ワーク(データ入力・事務・ライターなど)で、個人のアフィリンクから応募させるケースはまずありません。

    3. 「実績画像」の信頼性が低い

    投稿には報酬画面のスクリーンショットが添付されていました。

    しかし、数字だけで明細がない。どのサービスで、何をして得た報酬なのかも不明。こうした画像は簡単に作れますし、詐欺界隈では使い回しの定番素材です。

    4. ターゲットを絞ったハッシュタグ

    #副業 #双子ママ #在宅 といったタグが付いていました。

    時間やお金に余裕がない層を狙い撃ちにする、典型的なマーケティング手法です。


    この手の案件が行き着く先

    調べてみると、こうした案件は最終的に以下のパターンに着地することがほとんどです。

    • 登録後に「マニュアル代」「初期費用」を請求される
    • 稼ぐには「有料サポート」「上位プラン」が必要と言われる
    • 実態は「自分も同じ投稿をして勧誘する側になる」ネズミ講型
    • 出金条件が厳しく、結局お金が引き出せない

    安全な副業を見分けるチェックリスト

    もし気になる案件を見つけたら、以下を確認してください。

    登録前に確認すべきこと

    • 仕事内容が文章で明確に説明されているか
    • 会社名・運営者・所在地・特商法表記があるか

    こう言われたら即撤退

    • 「まずはLINEへ」
    • 「説明会に参加してください」
    • 「マニュアルを購入してください」
    • 「サポート費用がかかります」

    まとめ

    今回の案件は、**「安全とは言えない」「関わらない方が無難」**という結論になりました。

    SNSで見かける「簡単に稼げる副業」の多くは、こうした詐欺まがいの案件です。甘い言葉には裏があると思って、慎重に判断してくださいね。

    以上

    こんな風にポイントを指摘してくれます。

    これは詐欺だなーというアカウントでもちゃんと根拠を提示して回答してくれるのがちゃっぴー。

    ちゃっぴーを完全に信用してしまうのはいいとは言えませんが自分で判断できないものはちゃっぴーに一度聞いてみるのがいいかもしれません。正解やこうしたほうがいい、自分の思っている答えをくれないかもしれない、でも一度立ち止まって考えることはできる。

    だいたい詐欺に引っ掛かる人って独り身で相談できる相手がいない人が多いですからね、人のこと言えませんけど。

  • 久しぶりにめっちゃ雪降ったらしい

    もう年も明けて全然更新してないな、三日坊主はよくあることですが今年はブログもなんとか形にしたいと思ってます。

    (思っているだけでおわることが多いわけですが)

    特にネタがないわけでもないのですがなかなかキーボードに向き合う習慣がなくなってると今日はいいかとなるもんです。

    さて今日は私の住んでいるところでは雪が結構積もったらしくて例年の9倍くらい積もったらしいです。

    近場のところだと積もって5㎝くらいですかね、朝起きたら膝埋まるくらい積もってるし車は埋まってるしで完全に引きこもり状態です。

    生まれて何度も冬は経験してますがほんと久しぶりに積もった感じがします。

    過去には三八豪雪というのがあってそのときはとんでもないくらい雪が降り続けて雪が積もったとかなんとか。昭和38年の出来事なので三八豪雪というらしい。

    最近はAIがなんでも教えてくれるので三八豪雪について教えてって聞くと簡単に教えてくれる。

    福井市: 積雪 213cm(昭和38年1月31日記録)※平年の積雪の数倍

    金沢市: 積雪 181cm

    富山市: 積雪 186cm

    九州地方: 鹿児島や宮崎でも積雪を記録するなど、普段雪の降らない地域でも大混乱となりました。

    もう完全に人の背丈を超えてますね…

    場所によってはわかりませんが山手とかだとこのクラスになってるかもしれませんね。除雪作業も慎重にやらないといけない。

    天気は回復するみたいですが交通渋滞、物流の遅延とか出ているので明日もどうなることやら。

  • かしこいとうわさのChatGPT5.2出たので実際に使ってみた感想

    12月に入ってChatGPTに「GPT-5.2」が出てきた。
    ちょっと前にgeminiが出て勢力図が大きく変わるぞみたいな記事を見た気がするけどさっそくオープンAIも対抗してきたわけ。
    どこでもあることですがほかのAIに負けないようにアップデートしていくものですからね。
    ChatGPT5.2にはInstant/Thinking/Pro という複数のモードが用意され、「どれだけ賢いか」よりも「実際の作業でどこまで任せられるか」を意識したアップデートがされている☜(AIに書かせた)

    ここ最近は、ChatGPTだけでなく、GeminiやClaudeなども含めて、文章生成や要約は「できて当たり前」になってきました。正直、ちょっとした文章を書く程度なら、どのAIを使っても大きな差は出にくい時代です。
    その中でGPT-5.2は、考えながら整理して、途中で破綻せずにアウトプットまで持っていく という部分に、かなり力を入れてきたように感じました。☜(これもAIに書かせた)

    ChatGPTが考えて答えを出すスピードについても速くなったきがするし論理的な思考やThinkingの深く考えるというのも細かいプロンプトを与えるとかなり凝った返事をしてくれる。
    まさに優秀なアシスタントが出来上がったみたい。


    ただ、実際に使ってみた感じ以前よりも深く考えてプロセスで表示、利用者に対してもフローがわかるように答えを出してくれるけどアシスタントの要素が強くなりすぎてると思う。
    私がこうだと思うけどどう思うと聞くとまるでやさしい男性のようにその考え方で合ってるよ、大丈夫だよ、ここをちょっと見直そうねくらいになってしまう。

    この辺はがっかり要素ですね。
    私の主観ですが人間と生成AIの立場はほぼ同等で同じ問題に意見を出し合いブラッシュアップしていくのがあるべき姿だと思うのでこっちに寄せて正解に近い回答へもっていくのはちょっと違うと思ってる。
    なので固まった回答ができたらこれで大丈夫?別の視点から見てなど細かいプロンプトを追加してチェックするようにしてます。
    そうしないとAIが間違ったことを言ったー、みたいなあるある話になりますからね。

    かなり深く考えるようになっているので使い方次第ではかなり優秀なアシスタントになりますけど上下関係がしっかりした上司と部下のような関係にはしたくないですね。
    上司の意見がすべてみたいな会社になりそうだし。

    現実でもそうですが。