D'une, je ne suis pas abonné à l'IEEE, donc ton lien ne donne rien qu'on puisse lire. J'avais pris la peine de donner des liens lisibles (et une recherche sur fuzzy logic SPARQL donne déjà plein de choses et franchement pas grand chose sur modal logic SPARQL (et jamais en associant les deux à SPARQL, ce qui confirme mon intuition que modal logic a toujours été réducteur et que tout le reste a été étudié dans le cas de la logique floue qui a déjà repris la question. L'article que tu sites semble vouloir combiner les deux dans une modal fuzzy logic mais cela reste une fuzzy logic appliquée au cas du seul l'axe modal (vrai/faux), alors que la logique floue porte sur tous les axes possibles (servant à évaluer quelque chose, notamment les mesures numériques qui ne sont justement pas "modales"). Je reste convaincu donc que "modal logic" est un cas particulier, une application de la logique floue, et que c'est dans ce cadre que l'article que tu cites veut se concentrer (pour ne pas avoir à considérer d'autres termes, comme par exemple la notion de comparabilité qui amène à répondre à une question modale comme "a > b ?" ou même "a = b ?" quand les deux variables ne sont pas modales, mais floues).
Tu penses sans doute modal logic est aussi vaste que fuzzy logic, je pense le contraire et que toute extension du premier emprunte au second qui le contient déjà le premier. Il doit y avoir seulement une bataille d'écoles entre experts revendiquant la primauté d'un domaine sur l'autre (et de toute façon quels que soient les progrès faits dans l'étude de l'un cela bénéficie aussitôt à l'autre).
La logique floue va même très loin car elle cherche à évaluer les probabilités avec des distributions de probabilité (permettant de combiner les distributions et pas seulement donner une statistique unique comme la moyenne, l'écart type, une borne maximale ou minimale. C'est un pan tout entier des probabilités où on ne travaille pas que sur une quantité numérique unique mais sur des fonctions de distribution (avec leurs lois propres, dont quelques classiques comme: Poisson, Gauss, hystérésis, seuil, peigne de Dirac...). Les opérateurs logiques classiques (et, ou, non, puis ceux qui en dérivent directement comme la disjonction ou la différence) se réécrivent alors sous forme de combinaisons de fonctions de distribution: on ne peut alors pas répondre à "a > b?" mais donner une fonction de distribution dont on peut cependant donner certaines caractéristiques comme des moyennes et écart-types à partir duquel "a > b" est vrai selon les seuils propres à a et b.
Toute la logique floue n'est évidemment pas encore décrite et modélisable sous forme RDF (pas plus la question de la modalité) mais quelques modèles fonctionnent déjà pour donner quelques caractéristiques (à condition d'imposer le type de distribution supposé, par exemple gaussien). Les connaissances humaines pourtant portent sur des éléments qui n'obéissent pas tous aux mêmes types de distribution (les plus fréquents sont gaussiens, mais Wikidata contient des tas d'éléments qui n'ont pas ce comportement et en plus ils sont couvent corrélés et non indépendants mais on a du mal a connaitre leur degré de corrélation, par exemple avec un test du chi², valide pour un comportement gaussien, et donc aussi à modéliser la distribution de cette corrélation).
Même si on n'intégrait dans Wikidata des inférences de type "modal" uniquement, on ferait de sacrés progrès pour répondre à pas mal de problèmes. Mais j'en reviens aux articles initiaux qui eux voyaient cela comme des cas particuliers permettant de répondre aux question modales (à priori toutes...), mais pas seulement (non restriction à seul axe), toutefois avec un type de distribution limitée (exprimable sous forme d'un seul nombre et pas sous forme d'une fonction de distribution, donc facilement calculable et très facile à exprimer en RDF). C'est pour ça que j'ai cité FSA-SPARQL ou les autres liens (lisibles, eux!, pas juste un titre et un paragraphe de présentation).
Donc je te prends à vouloir encore dévier de la question initiale et vouloir compliquer le problème. Notre problème sur Wikidata reste le même: comment gérer l'incertitude (qui est asmises depuis le début, dès lors qu'a été prises la décision de ne justement PAS utiliser OWL mais rester assez proche du RDF et entièremetn compatible avec lui), et présenter cette incertitude (même si on ne sait pas encore l'évaluer et demandera d'autres développements et des avancées dans les standards dont dépend Wikidata, et des travaux certainement déjà en cours au W3C là-dessus car je ne doute pas du tout que ça intéresse bigrement, à commencer par Google et les réseaux sociaux qui se sont lancés dans l'IA et y mettent le paquet tant ils savent qu'ils vont y gagner beaucoup et ambitionnent de devenir les oracles du monde et indispensables pour diriger nos vies).