-
Notifications
You must be signed in to change notification settings - Fork 27
[ODK] Meeting 2019 06 26
- RNS pour fgemv basé sur FFLAS::RNSInteger
- debugger pourquoi certaines cols plantent
- pb d'approx de bornes -> on les calcule en valeur désormais -> fixé
- faire les convert et le IVD.addin en matriciel
- done
-parallélisation de fgemm pour l'update: 3 options
- Paralle:rnsmodulus
- Parallel::BlockThreads pour les fgemm sur les corps de base
- un compose des 2
-
paralléliser les inverse dans le init
-
faire les autres optims (inv, etc, quorem en utilisant l'ouput uint)
-
faire de bench sequentiels en dimension + gde et trouver le bons seuils pour équilibrer init et lift.
-
planning -> puis
- benchmarks
- intégration dans le framework général (matrices non-inversibles, rectangulaires, etc)
-
RatRecon: passer les bornes num et den pour al reconstruction -> fixe #197 upstream -> appliquer le change dans Dixon normal
-
question synchro: faut-il synchroniser au niveau du fgemm: [D2]
TODO next: -> TODO: quand nullity>0 -> redraw a new prime
- LinBox error debug contracts: PR en WIP encore en WIP, a voir plus tard.
-> autotune crash n'est pas reporté -> done
- SG1: URGent
- pDet, pRank, pReducedEchelonForm, -> fait, speedup parallel visible
- solve appelle echelonize -> devrait être parallèle -> à vérifier -> en passant algo = noefd -> ça marche -> CP: finir de nettoyer et mettre en need-review -> note pour plus tard: nettoyer le mécanisme des noefd dans sage vue que ça n'existe plus dans LinBox
-
becnhmarks fgemv -> bons speed-up -> nettoyer les #if 0 -> essayer de remplacer les FORBLOCK1D + SYNCH_GROUP + TASK + for loop par un FOR1D (enlever le PAR du PARFOR1D du block #if 0) et confirmer que on ne perd pas en speedup
-
comprendre pourquoi le pointwise n'est pas parallel -> done
-
nettoyer -> finir Nettoyage, objectif PR dans la semaine
TODO next: en vue du D5.14: adresser le point archi hétérogènes ->
- remettre en place le code CRAMPI et faire marcher CRA-OMP et hybride CRAMPI-CRAOMP
- essayer de faire marcher FFLAS sur le dgemm de CUBLAS et voir si on peut sortir quelques bench. Optionel: paladin+cublas (semble bp trop ambitieux) + documenter le README.md avec les instructions pour utiliser CUBLAS
Autres:
-
refacto ZRing et IntegerDom -> waiting for review
-
JG fflas-ffpack #265 -> test-solve sur retourdest avec openblas en parallel -> USE_THREADS=0 incompatible avec set_num_threads -> CP regarde si c'ets un bug OpenBlAS et reporte