思考と決断のPM力

PMの真価

スキルシート上にあるPMというのは、どういった開発言語や開発環境などを使ってきたかという内容であることが多く、SEの延長という意味合いが強く残っている。もし、期待するポジションが発想力や提案力にあるとすれば、姿勢をみることが大切となる。

従順の呪縛

就職氷河期と呼ばれる世代より上の年齢層では、常に従うことを幼少期から叩き込まれていると考えられる。日本では「禁止」か「許可」かを常に意識しながら仕事をしており、「許可されるまでは禁止されている」と考えているのではないかと推察される。

失敗からの成長

正しいか、間違っているか、の判断基準しか持ち合わせていない場合、何か問題が発生したときに時間を遡ってどこで判断を間違えたのかを追求する。それは大切なことであるが、実際のプロジェクトでは誤ったことを反省しつつ修正しながら進むことが大切である。

判断力の真髄

エンジニア出身のPM(開発プロジェクトのPM)だと、禁止か許可かというデジタルのような見方をしている人もいる。特に今日のシステムに関するプロジェクトでは、ゼロかイチだけでは判断できないような、ウエットでアナログな状況判断が必要となる。

まとめ

たとえ能力の高いPMだったとしても、仕事になると発想することや作ることの楽しみより、ミスによる懲罰を恐れたりするために、無難で当たり障りのない判断をしがちである。システムに関するプロジェクトがなかなか前へ進まない理由でもある。

関連記事

AIチャットボットの現実

チャットボット幻想と現実

人手不足や生産性向上が叫ばれる中、多くの企業で「問い合わせ業務の多くはAIチャットボットで代替できるのではないか」という期待が高まっている。確かに、人間と自然に会話できるAIの実現は、多くの技術者が長年抱き続けた夢でもあった。しかし、過去には言語理解や文脈の把握に技術的な限界があり、実用化には程遠いというのが現実だった。こうした期待と現実のギャップが、AIチャットボット導入の失敗要因となってきた。

チャットボットの進化

2000年代には、ルールベースやシナリオ型のチャットボットが登場し、定型的なカスタマーサポートなどで徐々に実用化され始めた。とはいえ、自然な対話というより「決められた会話」に近く、限定的な使い方にとどまっていた。ところが2020年代に入り、ディープラーニングの飛躍とともに自然言語処理の精度が格段に向上し、Google、Facebook、OpenAIといった技術企業が次々に大規模言語モデル(LLM)を発表したことで、チャットボットは“おしゃべりマシン”から会話パートナーへと進化した。

ChatGPTの衝撃

ChatGPTのような生成AIが登場し、誰でも使えるようになったことで、AIチャットボットの活用は一気に加速した。従来のようなFAQへの対応だけでなく、長文の文書作成や要約、翻訳、さらにはプログラミング支援など、より複雑で創造的な作業もこなせるようになっている。人間の知的作業領域に深く入り込み、単なる効率化ツールにとどまらない存在となった。もはや「使えるかどうか」ではなく「どう使うか」が問われるフェーズに突入している。

業界全体への波及

AIチャットボットの導入は、ビジネスだけでなく教育、医療、自治体など、多様な分野に広がっている。学生の学習サポートから医療問診の補助、行政窓口での自動対応まで、AIは生活の一部に組み込まれつつある。この変化は、かつてITインフラを支えてきた旧世代のエンジニア像を超える大転換だ。業務が高度化し、かつ柔軟性が求められる現代において、AIと協働する力が企業と個人の双方に求められている。

まとめ

AIチャットボットは、単なる業務効率化ではなく、人間の知的作業を補助する“共創”のパートナーである。ただし誤情報、倫理、プライバシーといった課題も存在する。こうした課題を踏まえ、社会全体でのルール整備と、使い方の成熟が必要だ。AI導入を成功させるには、「AIも使い様」という視点が欠かせない。ITの導入に乗り遅れてきた企業ほど、AI活用でも二の舞になりかねない。アタラキシアDXは、AI黎明期からの導入支援経験をもとに、技術とビジネスの橋渡しを支援している。

続きを見る >

QCDの死角

失敗の正体

システムの失敗は見えないことがある。ブラックボックスであるがゆえに隠せてしまうからである。失敗かどうかの線引きができないところがシステム構築プロジェクトの難しいところである。

エンジニアの真実

もしかしたら、エンジニアが都合の悪いことは隠していることがあるかもしれない。しかし、決めつけてしまうとエンジニアはへそを曲げてしまう可能性がある。隠しているつもりはなくても隠れていることもある。

成功の境界

失敗の線引きは、納期が遅れることであろうか。バグが多いということであろうか。実は、状況によって一概に言えないのである。QCDという言葉があるが、品質と費用と納期のバランスを上手にとったとしても成功か失敗か、すぐにはわからないのがシステムという無形物である。

コスパの本質

コスパという言葉があるが、かけるコストに対して、どれだけのパフォーマンスが出せるかが問題となる。システム開発では、コストからやりたいことを計算するのではなく、やりたいことを明確にしたうえで、コスト内でリッチ度合いを調節することが重要である。

まとめ

システム開発においては、失敗が見えにくいため、失敗しないように見えるのかもしれない。失敗しないことは、成功であるということでもない。時間が経つにつれて失敗を感じることもあり得るのである。

続きを見る >

生成AIは使えない?

思い通りにならない理由

生成AIを導入したのに思ったような結果が得られない――そんな経験をしたことがある人も多いだろう。AIは進化を続けているが、それを使いこなす側にも試行錯誤が求められている。特に企業においては、社内情報を整理すればするほど目的の答えに辿り着けなくなる「RAGの沼」にハマることがある。多くの企業が生成AIを武器にしようとしているが、その真価を引き出すには、正しい導入と運用が欠かせない。

RAGとは何か

RAG(Retrieval-Augmented Generation)は、「検索」「拡張」「生成」の頭文字を取った技術であり、生成AIに独自情報を与えることで回答の精度を上げる手法である。インターネット上の情報だけでなく、社内マニュアルや業務データなどを取り込むことで、より業務に即した回答が可能になる。ただし、期待する結果が得られない場合、その原因は提供リソースの質や構造にある可能性が高い。

ChatGPT以外の選択肢

現在、生成AIとして多くの大規模言語モデル(LLM)が存在する。OpenAIのChatGPTをはじめ、AnthropicのClaude、GoogleのGemini、MetaのLLaMA、Mistral、Cohere、さらにAlibabaやBaiduといった中国系ベンダーもある。それぞれに強みがあり、RAGに適したモデルも存在する。たとえばCohereのCommand R+やMistralのMixtralなどが代表的だ。目的に応じてLLMを選び、最適な環境を整えることが重要である。

社内AIを成功させるには

セキュリティ上の理由から、社内情報をインターネットに出せない企業も少なくない。その場合、オンプレミス環境(社内ローカル)に生成AIを構築する選択肢がある。たとえばTinyLLaMAやPhi-2のような軽量モデルから、Nous HermesやMixtralなどの対話・RAG対応モデルまで選択肢は豊富だ。これらを活用すれば、外部にデータを出さずともAIの恩恵を享受できる。必要なのは、自社の目的と環境に適した判断力である。

まとめ

生成AIはあくまで「道具」にすぎない。導入しただけで目的が自動的に達成されるわけではない。課題を定義し、適切な情報を整備し、それを使いこなす力が必要だ。RAGがうまくいかないと感じたら、その原因はリソースや設計のミスマッチにあるかもしれない。

続きを見る >