QCDの死角

失敗の正体

システムの失敗は見えないことがある。ブラックボックスであるがゆえに隠せてしまうからである。失敗かどうかの線引きができないところがシステム構築プロジェクトの難しいところである。

エンジニアの真実

もしかしたら、エンジニアが都合の悪いことは隠していることがあるかもしれない。しかし、決めつけてしまうとエンジニアはへそを曲げてしまう可能性がある。隠しているつもりはなくても隠れていることもある。

成功の境界

失敗の線引きは、納期が遅れることであろうか。バグが多いということであろうか。実は、状況によって一概に言えないのである。QCDという言葉があるが、品質と費用と納期のバランスを上手にとったとしても成功か失敗か、すぐにはわからないのがシステムという無形物である。

コスパの本質

コスパという言葉があるが、かけるコストに対して、どれだけのパフォーマンスが出せるかが問題となる。システム開発では、コストからやりたいことを計算するのではなく、やりたいことを明確にしたうえで、コスト内でリッチ度合いを調節することが重要である。

まとめ

システム開発においては、失敗が見えにくいため、失敗しないように見えるのかもしれない。失敗しないことは、成功であるということでもない。時間が経つにつれて失敗を感じることもあり得るのである。

関連記事

AIチャットボットの現実

チャットボット幻想と現実

人手不足や生産性向上が叫ばれる中、多くの企業で「問い合わせ業務の多くはAIチャットボットで代替できるのではないか」という期待が高まっている。確かに、人間と自然に会話できるAIの実現は、多くの技術者が長年抱き続けた夢でもあった。しかし、過去には言語理解や文脈の把握に技術的な限界があり、実用化には程遠いというのが現実だった。こうした期待と現実のギャップが、AIチャットボット導入の失敗要因となってきた。

チャットボットの進化

2000年代には、ルールベースやシナリオ型のチャットボットが登場し、定型的なカスタマーサポートなどで徐々に実用化され始めた。とはいえ、自然な対話というより「決められた会話」に近く、限定的な使い方にとどまっていた。ところが2020年代に入り、ディープラーニングの飛躍とともに自然言語処理の精度が格段に向上し、Google、Facebook、OpenAIといった技術企業が次々に大規模言語モデル(LLM)を発表したことで、チャットボットは“おしゃべりマシン”から会話パートナーへと進化した。

ChatGPTの衝撃

ChatGPTのような生成AIが登場し、誰でも使えるようになったことで、AIチャットボットの活用は一気に加速した。従来のようなFAQへの対応だけでなく、長文の文書作成や要約、翻訳、さらにはプログラミング支援など、より複雑で創造的な作業もこなせるようになっている。人間の知的作業領域に深く入り込み、単なる効率化ツールにとどまらない存在となった。もはや「使えるかどうか」ではなく「どう使うか」が問われるフェーズに突入している。

業界全体への波及

AIチャットボットの導入は、ビジネスだけでなく教育、医療、自治体など、多様な分野に広がっている。学生の学習サポートから医療問診の補助、行政窓口での自動対応まで、AIは生活の一部に組み込まれつつある。この変化は、かつてITインフラを支えてきた旧世代のエンジニア像を超える大転換だ。業務が高度化し、かつ柔軟性が求められる現代において、AIと協働する力が企業と個人の双方に求められている。

まとめ

AIチャットボットは、単なる業務効率化ではなく、人間の知的作業を補助する“共創”のパートナーである。ただし誤情報、倫理、プライバシーといった課題も存在する。こうした課題を踏まえ、社会全体でのルール整備と、使い方の成熟が必要だ。AI導入を成功させるには、「AIも使い様」という視点が欠かせない。ITの導入に乗り遅れてきた企業ほど、AI活用でも二の舞になりかねない。アタラキシアDXは、AI黎明期からの導入支援経験をもとに、技術とビジネスの橋渡しを支援している。

続きを見る >

生成AIは使えない?

思い通りにならない理由

生成AIを導入したのに思ったような結果が得られない――そんな経験をしたことがある人も多いだろう。AIは進化を続けているが、それを使いこなす側にも試行錯誤が求められている。特に企業においては、社内情報を整理すればするほど目的の答えに辿り着けなくなる「RAGの沼」にハマることがある。多くの企業が生成AIを武器にしようとしているが、その真価を引き出すには、正しい導入と運用が欠かせない。

RAGとは何か

RAG(Retrieval-Augmented Generation)は、「検索」「拡張」「生成」の頭文字を取った技術であり、生成AIに独自情報を与えることで回答の精度を上げる手法である。インターネット上の情報だけでなく、社内マニュアルや業務データなどを取り込むことで、より業務に即した回答が可能になる。ただし、期待する結果が得られない場合、その原因は提供リソースの質や構造にある可能性が高い。

ChatGPT以外の選択肢

現在、生成AIとして多くの大規模言語モデル(LLM)が存在する。OpenAIのChatGPTをはじめ、AnthropicのClaude、GoogleのGemini、MetaのLLaMA、Mistral、Cohere、さらにAlibabaやBaiduといった中国系ベンダーもある。それぞれに強みがあり、RAGに適したモデルも存在する。たとえばCohereのCommand R+やMistralのMixtralなどが代表的だ。目的に応じてLLMを選び、最適な環境を整えることが重要である。

社内AIを成功させるには

セキュリティ上の理由から、社内情報をインターネットに出せない企業も少なくない。その場合、オンプレミス環境(社内ローカル)に生成AIを構築する選択肢がある。たとえばTinyLLaMAやPhi-2のような軽量モデルから、Nous HermesやMixtralなどの対話・RAG対応モデルまで選択肢は豊富だ。これらを活用すれば、外部にデータを出さずともAIの恩恵を享受できる。必要なのは、自社の目的と環境に適した判断力である。

まとめ

生成AIはあくまで「道具」にすぎない。導入しただけで目的が自動的に達成されるわけではない。課題を定義し、適切な情報を整備し、それを使いこなす力が必要だ。RAGがうまくいかないと感じたら、その原因はリソースや設計のミスマッチにあるかもしれない。

続きを見る >

市民開発とは何か

市民開発の正体

市民開発(Citizen Development)とは、IT部門やSIerに依存せず、業務部門などの非エンジニアが自らアプリケーションを作成する取り組みを指す。従来は「プログラミングができないと無理」と思われがちだったが、現在ではノーコード・ローコードツールの登場により、非技術者でも業務に必要なツールを構築できるようになった。代表的なものとして、SaaSベースの業務アプリやMicrosoft Power Platformなどがあり、これにより業務現場の課題解決が加速している。

IT不足とマクロの功罪

市民開発が注目を集める背景には、深刻なITエンジニア不足がある。人手が足りないなら自ら開発するしかない——この流れが市民開発を後押ししている。その原型とも言えるのがExcelマクロである。かつて現場では、個人PC上で動作するマクロが業務改善ツールとして使われていたが、多くが属人化し、結果として保守不能な“遺産”となってしまっている。

マクロの限界

Excelマクロの最大の弱点は「ファイル単体依存」である。複数人での同時使用や、プログラムの共有に極めて不向きである。マクロ付きファイルをコピーすれば、そのコピーごとに独立した修正が可能となり、誰がどのバージョンを使っているのか把握が困難になる。しかも、更新履歴の管理も難しく、組織全体の業務統一を図るには限界がある。こうした特性が、非効率と混乱を招く要因となっている。

マクロの呪い

属人化の果てに起きるのが「ブラックボックス化」である。Excelマクロにパスワードがかけられ、開発者も不在、しかし業務には不可欠——そんな状態が現場には数多く存在する。これらは情報システム部の管理外にある「野良プログラム(シャドーIT)」と呼ばれ、セキュリティリスクを高める要因でもある。結果として、誰も触れず、誰も捨てられず、今も現場の根幹に鎮座している。まさに、手遅れになる前に対処すべき課題だ。

まとめ

市民開発は、Excelマクロに代わる次世代の業務改善手段となり得る。ローコード・ノーコードの活用により、野良プログラムの乱立を防ぐには、組織としての運用ルールとガバナンスの確立が不可欠だ。アタラキシアDXでは、Power Appsを活用し、手遅れになる前にブラックボックス化したマクロのリプレイス支援を行っている。

続きを見る >