プロンプトエンジニアリング(その4)
前回のブログでは、医学論文に関して、プロンプトの限界について記載しました。
今回は、業界用語の定義について記載します。
業界用語の定義
医薬の世界では独特の用語の定義があります。プロンプトでその用語を使用する場合、定義に従った指示が必要になることがあります。
例えば、「重篤な有害事象」という表現を考えてみます。
重篤な有害事象(SAE:Serious Adverse Event)の「重篤」という言葉は、一般社会で使われている「重篤」とは異なり、規制上の報告義務を規定しているため、その規定をChatGPTに理解させる必要があります。
例えば、プロンプト内に単に「重篤な有害事象」と記載してしまうと期待する結果が得られない場合が発生します。それでは「重篤」に関するICH/E2Aの定義の英文をそのままプロンプトに埋め込めば期待する結果が得られるのかというとそうでもありません。
また、ICH/E2Aの定義を人間が読んでも異なる結果になる場合もあると思いますので、なかなか苦労するところです。
また、「有害事象」という言葉も、そのままAdverse Eventと表現しても、期待する結果が得られないことがあります。これも「重篤」と同様、規制上の規定を念頭に、ChatGPTに理解させる必要があります。
言葉をプロンプトに埋め込む時に、常にその言葉の意味を意識して、ChatGPTが理解できるように(人間が期待する反応を返すように)、プロンプトエンジニアリングを行う必要があります。
規制上の言葉だけでなく、普段、使っている言葉も同様です。人間は柔軟に対応できますので、特定の組織内の共通の理解を持って言葉を無意識に使いこなしている場合があると思いますが、ChatGPTに、そういう期待は禁物です。言葉を慎重に選ぶ必要があります。
例えば、お客様から「◯◯という条件で抽出するようにプロンプトに指示してください。」と要望された場合、お客様が使用されている◯◯という言葉の意味の確認が必要な場合があります。
100人が100人、誰が考えても、同じ意味で使用している◯◯ならば問題ありませんが、AさんはXXXという意味で◯◯という言葉を使っている。しかし、BさんはYYYYという意味で言葉を使っている。というようなことが考えられるのであれば、それは丁寧に確認する必要があります。
医師と患者が会話する時も医師同士なら当然、伝わる言葉であっても、医師と患者の間では認識の異なる言葉も色々あると思います。人間と人工知能モデルが言葉を介して助け合う場合も、言葉の取り扱いというのはとても重要なのです。
参考) 国立国語研究所のサイトに『「病院の言葉」を分かりやすくする提案』が記載されており、その中に「重篤」という言葉の解説があります。一般社会で使われる「重篤」という言葉でありながら、医師と患者の間の認識が異なることが示されていますが、人間同士でも間違う言葉というのは、プロンプトエンジニアリングにおいても注意が必要ですね。
では、また。